Connexion

Connexion à votre compte

Identifiant
Mot de passe
Maintenir la connexion active sur ce site
Communiqués de presse
Communiqués de presse

Communiqués de presse (1310)

Bonne croissance pour Orone en 2018

lundi, 11 février 2019 08:34

Orone, le spécialiste de la gestion dématérialisée des documents  et moyens de paiements, valide la pertinence de son offre Wecheck tant sur le marché National qu’à l’international.

 

En 2018, Orone a axé son développement sur ses domaines d’expertises liés au traitement dématérialisé des chèques et des moyens de paiement TIP et SEPA. Dans ce contexte, après avoir rassemblé ses activités sous la marque Wecheck et fait évoluer son organisation pour accélérer son développement commercial, Orone a lancé sa stratégie de croissance à grande échelle. Cela s’est traduit par un très bon accueil du marché qui a rapidement su entrevoir les opportunités offertes par Orone pour gagner en fluidité et en agilité dans le traitement dématérialisé des encaissements, particulièrement pour les entreprises et les organismes publics.

 

Point sur les grands succès de 2018 :

  • Un recentrage des activités sous la marque Wecheck
  • Une croissance des activités en Afrique 
  • Un chiffre d’affaires de plus de 4,5M euros
  • 5 nouveaux partenariats signés avec des éditeurs de logiciel pour intégrer et distribuer l’offre Wecheck  

 

En 2019, Orone va continuer d’investir pour se positionner comme l’acteur référent de son marché, développer de nouvelles synergies et mettre en production les nouveaux projets initiés avec ses clients et partenaires.

 

Bernard Poll, Président : « Le chèque, le TIP et le mandat SEPA continuent d’être des moyens de paiement privilégiés dans de nombreux cas d’usage. Les questions relatives à l’accélération et la sécurisation de leur traitement sont au cœur des préoccupations de nos clients. En conjuguant Cloud et technologies industrielles, nous leur permettons de mener à bien leurs projets, de gagner en sécurité et délai et de contenir leurs coûts de gestion. » 

 

Nouvelle version de mytem360

jeudi, 07 février 2019 11:31

Saaswedo annonce une nouvelle version de sa solution mytem360, un outil de Technology Expense Management de nouvelle génération. Concrètement, cette version 2019 s’enrichit de nouvelles fonctionnalités, d’un parcours utilisateur simplifié et d’une navigation plus intuitive.

 

Une nouvelle expérience utilisateur

 

De nouveaux tableaux de bord disposent d’indicateurs de variation mensuelle et des analyses graphiques conçus pour faciliter les prises de décision des gestionnaires de flotte. Les bénéfices tangibles sont nombreux : une ergonomie web entièrement repensée « utilisateur », une nouvelle navigation dans les tableaux de bord, un accès rapide au détail d’une ligne et une simplification des interfaces de gestion et de diffusion des rapports.

 

Une refonte modulaire

 

Ces améliorations portent sur l’ensemble de l’environnement de pilotage financier de mytem360. Suivront ensuite des évolutions concernant les environnements de gestion de parc et de commande. Toutes ces évolutions ne perturberont pas le quotidien des utilisateurs. Ainsi, à titre d’exemple, lors de la migration vers la nouvelle version, les modules actuels de gestion de parc et de commande restent accessibles et s'ouvrent dans un nouvel onglet du navigateur, sans avoir à se reconnecter.

 

Une migration transparente

 

Grâce au mode SaaS, les utilisateurs bénéficient de la nouvelle version, sans effectuer aucun téléchargement ni aucune installation. Automatiquement, l'URL usuelle redirige l’utilisateur vers celle de la nouvelle version et les accès de connexion restent identiques.

Christophe Fornes, Directeur Commercial chez Saaswedo « Notre solution mytem360 intègre de puissantes améliorations qui lui permettent de conserver son avantage concurrentiel et sa simplicité d’utilisation. Très ergonomique et intuitive, cette nouvelle version apporte une réponse précise aux entreprises qui souhaitent piloter efficacement leurs opérations télécoms au travers d’une solution dédiée. »

 

Chaque jour les clients interagissent avec les marques. Ils expriment leur satisfaction sur l’utilisation des produits et services, ils en apprécient les améliorations, et partagent leurs avis avec leurs pairs, leurs amis, voire avec des inconnus. En étant à l’écoute de ses clients, on constate qu’ils sont tout à fait prêts à partager avec ces précieuses informations. Se pose alors la question de savoir comment les entreprises, réagissent face aux comportements de leurs clients. La réponse à cette question est d’importance car elle détermine le niveau de qualité de l’expérience client que proposée.

Il n’y a pas si longtemps, les consommateurs étaient assez limités dans leurs échanges avec les marques. L’adoption généralisée des nouvelles technologies de ces dernières années a considérablement développé les échanges entre marques et consommateurs. Ces nouvelles manières de communiquer avec le marché ont logiquement amené les entreprises à revoir leurs processus métiers, et tout particulièrement ceux relatifs à l’expérience client. Les marques doivent cesser de parler de façon abstraite de l’expérience client et développer des initiatives concrètes, spécifiques, capables d’être mesurées et optimisées ; grâce aux données et expériences connectées, ainsi qu’aux nouvelles technologies digitales.

Les données connectées

Pour rendre l’expérience client aussi fluide que possible, il est essentiel de supprimer les silos de données et d’unifier les actions marketing, commerciale et celles d’autres services en vue de générer des interactions pertinentes entre tous. Il est essentiel que les marques définissent une véritable stratégie concernant ces données : quelles informations doit-on récolter, et quelle sera leur utilisation. L’un des meilleurs moyens d’améliorer rapidement l’expérience client passe par la personnalisation. Quand l’expérience proposée est personnalisée et cohérente tout au long du parcours du client, tout le monde y trouve son compte.

L’émergence des intelligences connectées

Les avancées technologiques façonnent nos habitudes de consommation. Les entreprises qui ne prennent pas en compte ces changements fréquents dans les comportements de leurs clients prennent de gros risques : elles perdent non seulement des parts de marché à court terme, mais elles se privent aussi d’informations précieuses qui pourtant les aideraient à faire progresser leur expérience client.

Alors qu’aujourd’hui les activités marketing se développent principalement à partir de scénarios prédéfinis et du comportement attendu des consommateurs, l’intelligence artificielle et l’apprentissage automatique, appelé couramment « machine learning », offrent des avantages bien plus importants. Créer de façon immédiate des réactions pertinentes et spécifiques à chaque situation, conduit à des expériences client bien plus efficaces, plus rapides et plus personnalisées. Ce nouveau concept d’intelligence connectée va rapidement s’imposer à toutes les marques qui veulent rester en tête de la course.

La réalité augmentée est aussi un domaine en plein essor, capable d’améliorer significativement la qualité de l’expérience client. L’ajout d’informations contextuelles à des environnements réels via des applications smartphones ou des lunettes de réalité augmentée, permet d’attirer l’attention des clients, et d’améliorer leur apprentissage et leur engagement. Une autre tendance à laquelle les entreprises doivent s’intéresser est l’internet des objets, avec la mise en place de capteurs tout au long d’un processus donné, pour établir un lien entre le monde physique et l’univers virtuel. Pour les marques, l’internet des objets améliore de façon considérable les processus métier grâce à l’analyse et l’exploitation systématiques des données récoltées.

Enfin, l’augmentation continue des interactions entre marques et consommateurs exige des entreprises des efforts croissants d’écoute et de réactivité face aux exigences du marché. L’utilisation d’assistants numériques virtuels, appelés couramment « chatbots », est un moyen efficace de pallier à cette exigence, et de gérer de façon automatisée ce volume croissant de données. 

Les expériences connectées : un point stratégique pour les marques

Aujourd’hui, les consommateurs sont en ligne 24 heures sur 24 et 7 jours sur 7.  Ils utilisent Internet pour rechercher les informations dont ils ont besoin, et ils s’attendent tout naturellement à ce que les marques s’inscrivent dans cette disponibilité permanente. Ce changement de paradigme « omnicanal », visant à savoir quand, où et comment servir les clients, est d’une importance capitale pour l’ensemble des entreprises et constitue pour elles un énorme défi. Les consommateurs d’aujourd’hui vivent dans un monde où tout leur est accessible en un clic et l’entreprise se doit d’y participer, notamment parce que les grandes marques les ont formés à cette attente. Dire que « le client passe avant tout » n’est pas un simple slogan, c’est devenu un moteur nécessaire à la survie des entreprises.

Une stratégie omnicanale réussie nécessite l’adoption de solutions dynamiques qui permettent à la marque d’établir des relations suivies avec ses clients, via des canaux de communication qu’ils ont eux-mêmes choisis, tant en ligne que hors ligne. La collecte, l’analyse et l’exploitation des données provenant des interactions avec les consommateurs sont essentielles pour aider les décideurs à prendre les bonnes décisions. Les entreprises sont alors mieux armées pour concevoir des solutions personnalisées, et offrir à leurs clients une expérience 

L’adoption des nouvelles technologies au sein des entreprises devient donc un atout concurrentiel indéniable. Leur intégration dans les processus marketing, ventes et services facilite la création d’une expérience client complète et pertinente, en phase avec le marché. Les entreprises peuvent alors bénéficier de la croissance et de la fidélisation durable de leur clientèle.

Par Olivia Faucheux,  Customer eXperience Sales Development Manager, Oracle Cx

 

Après 24 mois de R&D et d’offres sur mesure déployées chez des clients d’envergure, l’opérateur Jaguar Network continue d’innover en présentant son offre SD-WAN de nouvelle génération. Fort des succès obtenus et de l’expertise acquise, l’opérateur national industrialise désormais sa solution avec de nouvelles gammes de débits et des routeurs de dernière génération. Cette offre SD-WAN est un service à très forte valeur ajoutée permettant de virtualiser la gestion des réseaux et d’en améliorer la performance. 

 

Le SD-WAN est la nouvelle évolution logicielle des services réseaux WAN. Cette technologie apporte de la flexibilité et de la performance tout en garantissant la sécurité des données. L’entreprise est alors en mesure de reprendre simplement le contrôle de son réseau IT et de ses applications métier tout en optimisant ses coûts. 

 

Kevin Polizzi, CEO de Jaguar Network précise « Les volumes de données qui transitent sur les réseaux d’entreprise sont en forte croissance, affectant durablement la performance du WAN. On constate également que de plus en plus d’applications sont directement hébergées dans le Cloud, créant des problèmes de performance sur les accès Internet centralisés au niveau des sièges ou en cœur de réseau MPLS. Notre offre SD-WAN nouvelle génération permet simplement de contourner ces problèmes et de s’appuyer sur des réseaux performants et sécurisés. »

 

Le service SD-WAN de Jaguar Network, utilise la technologie SDN (Software Defined Network) et NFV (Network Function Virtualization). Il est la première brique d’un écosystème complet permettant d’accéder à des bénéfices concrets :

  • Ajuster ses flux applicatifs et l’utilisation de son réseau en donnant la priorité aux applications les plus importantes pour le bon fonctionnement de l’entreprise
  • Déployer plus rapidement de nouveaux sites à distance et depuis un point central avec une QoS normalisée
  • Moderniser son réseau historique en s’appuyant sur une architecture cohérente, managée et opérée de bout en bout par les ingénieurs de Jaguar Network
  • Diminuer ses coûts de gestion réseau grâce à une meilleure utilisation des accès disponibles

 

Au travers de ce nouveau service, Jaguar Network s’inscrit comme expert des technologies de nouvelle génération et offre à ses clients une gestion plus agile de leurs réseaux en leur permettant d’améliorer leur expérience utilisateur, de s’appuyer sur des infrastructures adaptées à l’évolution de leurs activités et de gérer et déployer rapidement de nouvelles configurations.

 

Ce lancement s’inscrit dans une stratégie à long terme visant à rapprocher le datacenter des données en entreprise via les couches applicatives réseaux, et non plus de systématiquement porter les données vers des datacenters centralisés dans le cloud.

 

 

https://www.jaguar-network.com/produit/sd-wan

Incontestablement, les Fintechs occupent une place centrale dans les nouveaux services financiers utilisés au quotidien par les professionnels et le grand public. Dans ce contexte, force est de constater que le nombre de nouveaux acteurs qui émergent sur le marché est en forte augmentation. Les premiers succès sont aussi au rendez-vous dans de nombreux domaines : plateforme de levée de fonds, néo-banques, prêts, etc. Les usages sont multiples et les services en constante évolution. Un pan en forte croissance est aujourd’hui lié à l’économie « collaborative et participative ». L’objectif étant d’offrir des services « pratiques »,  « inclusif » et d’humaniser la gestion financière courante souvent perçue comme complexe et lourde à mettre en œuvre. 
 
La finance de proximité comme besoin fondamental
 
Les Fintechs sont le levier central utilisé pour combler des manques et faire émerger des sujets disruptifs qui répondent aux besoins actuels des utilisateurs. Dans ce contexte, on constate notamment que différentes approches orientées prêts entre particuliers, transfert d’argent, comptes en lignes et paiement sont aujourd’hui massivement utilisés. Leur point commun : une approche bon plan, économique et un mode de gestion simplifié. Ces orientations pragmatiques sont la base des modèles de développement inclusif  et des stratégies de croissance des Fintechs.
 
Créer toujours plus de lien humain grâce au digital
 
La grande majorité des Fintech cherche donc à fluidifier les opérations financières réalisées entre les individus. Prenons l’exemple du transfert d’argent et du soutien à la famille pour illustrer notre propos. Au-delà de délivrer ce service, l’une des promesses des Fintechs va consister à offrir un service pratique, disponible en temps réel, facile à mettre en œuvre, qui permet de suivre ses budgets, opérations courantes, etc... à la manière d’un e-portefeuille.  On comprend donc que la valeur proposée ne se limite pas au simple transfert, mais plutôt à la délivrance d’un service pratique et global permettant de simplifier des opérations complexes. Cette illustration met en avant le rôle que veulent jouer les Fintechs pour changer le marché et positionner une approche collaborative, simple et sociétale au sein de leur stratégie de développement.
 
Adaptées aux nouvelles attentes des consommateurs et entreprises, les Fintechs devraient donc se positionner durablement dans le secteur financier comme des acteurs qui vont faire évoluer les usages en innovant rapidement pour lancer de nouveaux services. Les premiers succès de grande envergure rencontrés par certains acteurs de poids comme les néo-banques en sont une parfaite illustration.

 

Par Bennaceur Kasbi, Président-Fondateur de Paytrip

À n’en pas douter, nous allons continuer de subir des cyber-attaques toujours plus nombreuses et sophistiquées. Dans ce contexte, force est de constater que les opérateurs sont aujourd’hui une cible de choix pour les pirates qui tentent au quotidien de nuire à leurs opérations en lançant différents types d’actions malveillantes. De manière générale, de nombreuses études estiment que les opérateurs sont confrontés à plusieurs milliers d’attaques chaque jour. Parmi ces dernières, se distinguent notamment les attaques DDoS, et plus particulièrement celles qui ciblent les infrastructures DNS. 

 

Particulièrement préjudiciables, elles peuvent fortement impacter la disponibilité de leurs services et donc par ricochet ceux de leurs clients... Il est donc plus que jamais nécessaire que les opérateurs de toutes tailles, et pas uniquement les acteurs importants, prennent ces sujets à bras le corps et mettent en place des moyens leur permettant de lutter contre ces menaces.

 

Comment faire pour prendre les bonnes orientations

 

Il est primordial de pouvoir identifier instantanément et d’isoler les flux malveillants ciblant un service, afin de préserver l’écoulement des flux légitimes. Pour ce faire il faut détecter les anomalies protocolaires, comportementales, et celles des sessions applicatives. La neutralisation des flux malveillants doit s'appuyer sur une logique de « filtrage intelligent » qui permet de protéger les systèmes d'information tout en préservant les utilisations légitimes et la continuité de service globale.

 

Au-delà des fonctions de filtrage, il est aussi nécessaire de bénéficier de statistiques détaillées d'usage de ses services, identifiant les sources malveillantes. L'ensemble de ces informations doit être consultable en temps réel ainsi qu'au travers d'alertes spécifiques. Enfin, il faut répondre au besoin de l’exploitant de consulter des rapports d'incidents ou des tableaux de bord périodiques.

 

La poussée du Cloud et des nouveaux usages, autant de vulnérabilités

 

Avec la forte poussée du Cloud et l’externalisation du SI hors des murs de l’entreprise, et notamment chez les opérateurs, les attaques vont continuer de gagner en force et en fréquence. Nous pouvons également ajouter à ces éléments l’émergence de nouveaux usages et applications éphémères qui viennent créer de nouveaux challenges pour les sécuriser contre les attaques DDoS. Nous sommes donc dans une situation où les opérateurs sont des cibles centrales et parfois vulnérables.

 

L’état d’urgence de la sécurisation des SI et plateformes des opérateurs est donc un axe majeur à prendre en compte. C’est à cette condition qu’il sera possible de lutter efficacement contre les attaques DDoS qui sont parmi les plus contraignantes et gênantes pour l’ensemble des entreprises. 

 

Fabrice Clerc, C.E.O de 6cure
 

Le RGPD dans son article 30 rend obligatoire le Registre des activités de traitement pour certaines entreprises. La Cartographie des Traitements, même si elle n’est pas exigée formellement par le RGPD, est quant à elle indispensable dans la pratique pour toutes les entreprises car elle est au cœur de la démarche de conformité au RGPD. 

 

Quelles sont les caractéristiques principales de ces outils qui, pour des raisons diverses, apparaissent comme indispensables ? Bien qu’ils semblent proches, sont-ils pour autant équivalents ou interchangeables ?

 

Le Registre des activités de traitement, une obligation légale

 

Le Registre des activités de traitement est un outil obligatoire pour toutes les organisations de plus de 250 salariés. Les entreprises de moins de 250 salariés ne sont donc pas dans l’obligation de mettre en place un Registre des activités de traitements, sauf :

 

-pour un traitement susceptible de comporter un risque pour les droits et les libertés des personnes concernées, s’il n’est pas occasionnel, ou s’il porte notamment sur les catégories particulières de données (données sensibles – art 9 RGPD), 

-sur des DCP relatives à des condamnations pénales. 

 

Ainsi, si une entreprise de moins de 250 salariés a des traitements qui rentrent dans une de ces catégories, ils devront figurer dans un Registre des activités de traitement. 

Si l’organisation est éligible à mise en place du Registre, mais qu’il n’a pas été instauré, elle s’expose à des sanctions de l’autorité de contrôle, la CNIL en France. Le montant de la sanction pourra s’élever jusqu’à 10 000 000 € ou dans le cas d’une entreprise jusqu’à 2% du chiffre d’affaires annuel mondial total de l’exercice précédent, le montant le plus élevé étant retenu.

 

Dans les organisations éligibles, le Registre des activités de traitement permet de recenser formellement les traitements de données à caractère personnel en présentant de manière synthétique l’objet du traitement, sa base légale, les données collectées, les durées de conservation, les mesures de protections organisationnelles et techniques en place, les personnes concernées, les destinataires de données, les sous-traitants, la présence de transferts hors UE. 

 

Toutefois, le Registre des activités de traitement, tel que requis par l’article 30 du RGPD, n’est pas suffisant pour atteindre et maintenir la conformité. Tout d’abord, les informations demandées ne couvrent pas toutes les exigences requises par le RGPD pour que le traitement soit considéré comme conforme. Ensuite, en cas de non-conformité ou d’évolutions des caractéristiques des traitements, il ne permet pas de suivre les actions nécessaires. C’est face à ces deux limites que la cartographie des traitements devient indispensable. 

 

La cartographie des traitements, un passage obligé pour le pilotage de la conformité

 

Cet outil (privilégier Excel), est un support au diagnostic et à l’analyse des écarts de conformité. Il permet d’identifier le plan d’action à court, moyen et long terme pour la conformité. Pour ce faire, il faut, via la cartographie des traitements, décortiquer chaque traitement sous tous ses angles en abordant tous les éléments de conformité décrits à l’instant T. 

 

Dans un premier temps, il faudra décrire les éléments inhérents au traitement : nom du traitement, détail du processus, personnes concernées, données collectées, catégories des données, volume de données concernées, finalités, pertinence, destinataires, durées de conservation en base active et en archive, modalités de conservation, obligations légales (consentement, intérêt légitime, obligation légale, contrat), droit d’information, droit d’opposition/accès/rectification/portabilité, formalités, modalités de collecte directe/ indirecte, mesures pour assurer l’intégrité des données, modalités d’échanges des données, application(s) utilisée(s). 

 

Dans un deuxième temps, il faudra décrire les éléments inhérents aux applications utilisées pour le traitement : traitement(s) concerné(s), nom de l’application, prestataire, description, gestion des accès, durées de conservation, modalités de suppression des données, mesures de sécurité (disponibilité, intégrité, confidentialité, traçabilité), flux entre applications, hébergement. 

Grâce à la collecte de ces informations et à l’analyse des écarts, la cartographie permettra : 

 

-d’alimenter le Registre des activités de traitement, 

-de mettre en place un plan d’action pour la conformité,

-de suivre la conformité dans le temps.

 

Une complémentarité nécessaire des deux outils

 

Aussi, que vous ayez déjà entamé votre démarche de conformité ou que vous deviez commencer, il est indispensable d’effectuer une cartographie des traitements en complément de la mise en place du Registre des activités de traitement. 

 

La cartographie peut être la pierre angulaire de toute votre démarche de conformité avec le RGPD. Elle fournira les éléments indispensables pour initier le Registre des traitements et pour l’alimenter ; elle permettra de dégager les points clés du plan de mise en conformité et, dans la durée, elle permettra, à travers ses mises à jour régulières, de suivre l’implémentation du plan de mise en conformité. Cet outil sera la preuve de votre maitrise de la conformité de vos traitements. 

 

Francesca SERIO – Consultant Senior chez Provadys / NetXP

 

La poussée du numérique, l’émergence de nouveaux usages, le travail collaboratif, les équipes multisites, la mobilité… autant d’éléments qui font intégralement partie des nouveaux modes de travail des entreprises. Ce point étant posé, on comprend donc parfaitement que les outils de visioconférence vont continuer à se développer durablement pour se positionner comme les compagnons indispensables des collaborateurs du 21ème siècle. 

 

Pour autant, la visioconférence ne peut être traitée à la légère et nécessite de prendre garde à certains points-clés. Par exemple, dans un contexte professionnel, des informations sensibles sont échangées et nécessitent donc d’être protégées. Nous allons présenter quelques points incontournables à prendre en compte avant de se lancer.

 

Le développement croissant du Cloud Computing

 

Sur ce sujet, la généralisation des technologies de Cloud Computing a fortement fait évoluer la visioconférence en la rendant plus accessible, ergonomique et simple à utiliser en toute situation (dans les salles de visioconférence, sur les smartphones, tablettes et ordinateurs portables). Lancer une application de visioconférence depuis ces différents points d’accès est alors une formalité qui se limite à quelques clics pour utiliser un environnement professionnel. 

 

Bénéficier de fonctionnalités collaboratives 

 

Les solutions professionnelles de visioconférence doivent également bénéficier de fonctionnalités orientées travail collaboratif (échanges de documents, etc.) et gérer le multiplex. À ce stade, il est nécessaire de pouvoir bénéficier d’une qualité de service et d’un support professionnel, notamment en termes de conciergerie : support, préparation des réunions d’un point vue technique, etc. Autant d’éléments à ne pas perdre de vue avant de sélectionner une offre pour communiquer avec ses clients et partenaires dans une qualité de premier plan.

 

Ne pas négliger la sécurité 

 

Un autre point-clé de la visioconférence professionnelle est lié à la sécurité. Il est crucial de ne pas se tromper et de sélectionner des solutions qui garantissent que l’ensemble des sessions réalisées seront totalement confidentielles et qu’il ne sera pas possible de pirater et accéder aux informations échangées. Ce point souvent laissé de côté au profit de fonctionnalités « visibles » est une donnée centrale.

 

La visioconférence professionnelle doit nécessairement s’appuyer sur des bases robustes pour permettre aux entreprises de collaborer efficacement. Il est donc nécessaire de prendre en compte un cahier des charges adapté avant de faire son choix sur tel ou tel environnement. 

 

Par Lucie CLOPEAU chez klood

 

La signature électronique est un outil pratique pour gagner en productivité et en réactivité. C’est l’une des étapes clés de la dématérialisation et de la transformation numérique des entreprises. Largement utilisée par les grands groupes depuis plusieurs années, elle se déploie petit à petit dans les entreprises de taille intermédiaire. 


De sa valeur juridique à sa mise en place, nous décryptons pour vous 5 idées reçues sur la signature électronique.

 

1 - La signature électronique n’a pas la même valeur juridique que son homologue manuscrite : FAUX !

 

Tout d’abord pour qu’une signature électronique ait une valeur légale, il faut que cette dernière soit délivrée par un tiers de confiance possédant l’accréditation eIDAS (Electronic identification and trust services). Elle est reconnue dans tous les États membres de l’Union Européenne. Chaque document paraphé d’une signature électronique est enregistré et mémorisé ce qui rend la modification de ce dernier impossible. Un document avec une signature électronique est donc plus sécurisé et plus fiable d’un document papier avec une signature manuscrite. 

 

2 - Une photo de ma signature manuscrite dans un document suffit : FAUX !

 

Il faut savoir que la signature électronique n’a pas d’apparence visuelle. Aujourd’hui elle est composée une suite de caractères. C’est une empreinte unique, elle est propre à chaque document et inaltérable. Techniquement, c’est comme si le document ne pouvait être lu que par le destinataire et le signataire. Dans les faits, un cachet est apposé sur le document pour visualiser la signature et rassurer les signataires sur sa présence. 
Ce qui différencie une photo JPEG de votre signature manuscrite et une signature électronique, c’est la capacité du Prestataire de Confiance à identifier le(s) signataire(s) et à stopper les modifications du document. 
Enfin, les documents signés et scannés n’ont aucune valeur juridique.

 

3 - Faire signer un document électronique coûte plus cher qu’une signature manuscrite : FAUX !

 

La signature d’un document papier vous oblige à de nombreuses actions coûteuses et chronophages : l’impression du document (souvent en plusieurs exemplaires) et l’affranchissement pour les différents parties mais aussi les mails ou courriers de relances, les scans, l’archivage, le classement... 
La signature électronique vous permet de réduire ces délais et de bénéficier d’un retour sur investissement rapide après une mise en place technique simple. 
En plus d’un avantage économique, c’est aussi une démarche écologique. L’envoi d’un mail a un impact environnemental réduit en comparaison d’un document imprimé, glissé dans une enveloppe (qui sera peut-être jetée sans être recyclée) et qui voyagera en avion ou en camion.

 

4 - Je n’envoie pas de documents à signer à distance, ce n’est pas pour mon entreprise : FAUX !

 

La signature électronique n’est pas réservée qu’à la contractualisation à distance, bien au contraire. En face à face, les avantages sont identiques : gain de temps, économies, amélioration de l’image de marque et confort d’utilisation. Elle favorise la conversion du client en accélérant l’acte de signature. Le commercial n’est plus obligé de séparer proposition commerciale et signature du contrat, le processus de vente peut s’effectuer en totalité lors du même rendez-vous. 
La signature électronique est déjà utilisée avec succès dans les secteurs de la banque, de l’assurance ou encore de l’immobilier.

 

5 - C’est compliqué à mettre en place : FAUX !

 

L’environnement juridique de la signature électronique est certe compliqué. Mais pour ce qui concerne l’utilisateur, notre solution SaaS permet d’envoyer un contrat à signer en quelques clics via votre navigateur habituel. Une fois le document envoyé, le signataire reçoit instantanément un mail avec le contrat, en prend connaissance et saisit le code reçu par SMS. Le contrat est alors signé électroniquement, rapidement et simplement.

 

Par Marine Appercé - membre de l'équipe marketing de Primobox

 

 

 

Nextedia ouvre une agence à Nantes

lundi, 04 février 2019 10:48

Nextedia, acteur de la transformation digitale centrée sur l’expérience client, lance à grande échelle ses opérations sur la région ouest et se rapproche de ses clients en annonçant l’ouverture d’une agence à Nantes qui réunira une équipe expérimentée issue de son pôle Digital Interactive. Dans ce contexte, Nextedia annonce l’ouverture de plus d’une quinzaine de postes sur les douze prochains mois, en recrutant des Chefs de projet, Lead Développeurs et Développeurs. En s’implantant à Nantes, Nextedia entend déployer et proposer son offre digitale à ses nombreux clients, notamment ceux implantés sur la région ouest. Déjà établi à Toulon, et avec une prochaine ouverture en région Nouvelle-Aquitaine, Nextedia compte d’une part renforcer sa couverture nationale, mais aussi jouer la carte de la mobilité professionnelle et permettre à ses collaborateurs de s’implanter en région s’ils le souhaitent. 

 

Marc Negroni, Président de Nextedia « 2019 est une année clé pour Nextedia qui compte fortement investir pour renforcer ses équipes au sein de ses différentes filiales. L’attractivité de notre marque employeur est un axe-clé qui va nous permettre de nous entourer de collaborateurs passionnés qui souhaitent se projeter à long terme à nos côtés. En ouvrant une agence à Nantes, nous faisons le choix de nous implanter dans une métropole qui bénéficie de toutes les infrastructures nécessaires pour conjuguer professionnalisme, dynamisme et qualité de vie. Ce nouvel atout démontre clairement notre volonté de faire évoluer en continu notre gouvernance RH pour recruter et fidéliser les meilleurs experts du marché. »