Data science

Convaincus par ses apports dans les domaines actuariels, nous investissons depuis plusieurs années sur la discipline de la Data Science, en constante évolution, pour améliorer nos diagnostics sur les problématiques assurantielles et RH.

Nous proposons ainsi à tous nos clients d’adapter les nouvelles méthodes d’analyse à la gestion de leurs risques.
Notre équipe pluridisciplinaire d’actuaires / datascientists / informaticiens travaillent les différents sujets en lien avec la donnée : de l’amélioration de la qualité et la confection d’entrepôts adaptés, à l’analyse des données et au déploiement d’algorithmes adaptés de prédiction et de classification.

Cette offre réunit les deux pôles de GALEA, assurance et protection sociale, pour adresser à ses clients les études les plus pointues en fonction de leurs besoins.

Notre offre de services s’adapte aux problématiques spécifiques des différents interlocuteurs :

À destination des professionnels de l’assurance et de la gestion financière :

  • Tarification et souscription : segmentation par l’utilisation de modèles (GLM, CART, Forêts aléatoires, etc.) pour la sélection, la tarification et le suivi du portefeuille, confrontation aux modèles de tarification existants ;
  • Marketing prédictif : analyse des caractéristiques des assurés, de leurs comportements et mise en perspective avec la valeur générée ;
  • Gestion des risques : amélioration de la gestion financière et plus généralement optimisation du profil de risques dans le cadre de l’ORSA ;
  • Prévention : analyses préalables à la définition et à la mise en place de politiques de prévention en assurances collectives et individuelles ;
  • Etudes comportementales : analyse du comportement des assurés suivant le type de garantie concernée (adhésions, renouvellements, résiliations, rachats, décès, fraudes, etc.), élasticité du prix, construction d’indicateurs de pilotage de portefeuille,
  • Création de classes de risques sur les aspects techniques ou financiers ;
  • Analyse des portefeuilles et des contrats : étude de rentabilité, pilotage des majorants tarifaires, mise en place d’un score client (pour plusieurs produits).

À destination des fonctions RH et financières des entreprises et des responsables des branches professionnelles (RH analytique) :

  • Amélioration des couvertures de protection sociale : compréhension des consommations en santé, optimisation des politiques de prévention, amélioration des garanties en prévoyance et en santé ;
  • Rémunérations : détermination et suivi d’indicateurs pertinents pour l’analyse des écarts de salaire, évaluation des salaires théoriques internes, comparaison des rémunérations pratiquées, définition de plans d’actions en collaboration avec les services RH pour assurer une équité globale ;
  • Analyses spécifiques « égalité homme-femme » : recherche d’éventuelles inégalités de traitement (modèles statistiques prédictifs sur-mesure), proposition de plans d’action, suivi et mesure d’efficacité des plans d’actions ;
  • Absentéisme : identification des facteurs explicatifs de l’absentéisme, détermination de groupes de salariés à risque, mise en œuvre et mesure de l’efficacité de plans d’actions, révision éventuelle des couvertures d’assurance ;
  • Turnover : identification de facteurs explicatifs du turnover et détermination de groupes de salariés à risque, mise en œuvre et mesure de l’efficacité de plans d’actions.
28 avril 2021L’ouverture du marché des pièces détachées à la concurrence est un sujet débattu depuis de nombreuses années par les organismes d’assurance commercialisant des produits d’assurance automobile. Également, lors de leurs communications à propos des hausses tarifaires annuelles, les assureurs justifient l’augmentation des cotisations en partie par la hausse continue du prix des pièces détachées. Cette mesure est donc largement désirée, que ce soit par les compagnies d’assurance et par les consommateurs majoritairement représentés par ses associations (notamment 60 millions de consommateurs et UFC-Que choisir). Après de nombreux échanges avec les associations de consommateurs et les assureurs automobiles (les organismes mutualistes en chef de file), les députés ont décidé de présenter une nouvelle proposition de loi distincte et reprenant tous les amendements, afin d’éviter un nouveau refus par le Conseil Constitutionnel. Aussi, cette proposition de loi devrait contenir 3 articles, déclinant une libéralisation progressive du marché des pièces détachées jusqu’en 2023. L’inconnue majeure demeure dorénavant dans le timing, puisqu’il va être compliqué de voter tous les textes d’ici la fin du mandat du Président Emmanuel Macron. C’est pourquoi les députés LREM tentent d’avancer les discussions parlementaires, afin d’examiner les textes d’ici la fin du printemps, et de pouvoir tenir le calendrier. Fort à parier que ce sujet connaitra encore des rebondissements, et que les organismes d’assurance vont suivre de très près les évolutions de ce potentiel projet de loi de libéralisation du marché des pièces détachées en France. En effet, l’inflation historique des prix des pièces détachées est comprise entre +6 % et +8 % chaque année, et est un facteur important de la hausse des prix des assurances automobiles. [...] Lire la suite…
23 février 2021La cyber-assurance est une forme d’assurance conçue pour protéger une entreprise contre les dommages causés par les menaces de cybersécurité. Il s’agit d’un risque qui s’étend et mute au rythme de la technologie et apparaît comme étant le risque principal parmi les risques émergents  pour les organismes d’assurance et de réassurance. A titre d’exemple, parmi les menaces figurent : Les violations de données ;Les hacks ;Les attaques par déni de service distribué (attaques DDoS) ;Les logiciels malveillants ;Les ransomwares. Aujourd’hui, toutes les entreprises sans exception sont concernées par le cyber risque et doivent se préparer à y faire face. Bien qu’il n’y ait pour l’instant pas de normes au niveau de la souscription des contrats, la couverture du risque cyber en France se présente principalement sous deux formes : Les garanties implicites : il s’agit de garanties pour lesquelles les contrats d’assurance ne visent pas de façon formelle les risques cybers comme fait générateur mais ils sont susceptibles de les couvrir. C’est par exemple le cas pour la garantie Multirisque Professionnelle qui indemnise les pertes d’exploitations et implicitement les cybers attaques. Ces garanties implicites sont parfois qualifiées de « couvertures silencieuses » en raison du manque de clarté et de visibilité dans les contrats à ce jour. Les garanties explicites : comme son nom l’indique, il s’agit de garanties spécifiques mentionnées dans les contrats et qui prennent en charge les risques cybers. A titre d’exemple, il peut s’agir de garanties protégeant les activités d’une entreprise contre les pertes d’exploitation ou encore de garanties prenant en charge les sinistres liés aux atteintes à la sécurité des données personnelles. Dans tous les cas de figures, l’assureur indique explicitement les règles de souscription, d’indemnisation et de prévention. Le risque cyber en quelques chiffres Dans le monde La cybersécurité au niveau mondial, c’est une attaque toutes les 39 secondes et un coût moyen s’élevant à 3,1 millions d’euros. Le montant des primes collectées dans le monde s’établit à 3 milliards d’euros. Etant le pays le plus touché par les cyberattaques, les Etats-Unis concentrent à eux seuls 85 à 90 % de ces primes. Au niveau européen, les primes se situent entre 500 et 700 millions d’euros, sur lesquels la France ne représente que 80 millions d’euros. En France Avec la pandémie de la Covid-19, le coût moyen de l’ensemble des cybers attaques en France a atteint le niveau abyssal de 35 millions d’euros en 2020 contre 9 millions 2019, soit une forte augmentation de 289%. Dans sa dernière étude, le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) indique que 65% des entreprises françaises déclarent avoir subi au moins une attaque durant les douze derniers mois. Cette étude révèle également que le Phishing demeure le moyen d’attaque le plus fréquent et a affecté 79% des entreprises française en 2019. Les faits marquants de l’année 2020 La pandémie de la Covid-19 a bouleversé le mode de fonctionnent de nombreuses entreprises notamment par le biais du télétravail. A cela s’ajoute la mise en place du confinement qui a eu pour conséquence de faire grimper la hausse du temps passé en ligne, offrant ainsi aux criminels de nouvelles opportunités d’exploiter toutes les vulnérabilités de sécurité créées par cette pandémie. La Covid-19 a été une opportunité pour les cybers criminels, comme le montre l’étude réalisé par Tend Micro sur le 1er semestre 2020 : La France est le deuxième pays européen où cette attaque a le plus sévi. Ces menaces se composaient de courriels, de liens internet et de fichiers malveillants en lien direct avec la Covid-19. Ainsi, la sinistralité en France ne s’est pas améliorée par rapport à l’année 2019, bien au contraire elle ne cesse de se dégrader : on enregistre une augmentation des attaques de 400% en 2020. Pour mémoire, la sinistralité cyber en 2019 avait augmenté de 210% par rapport à 2018. Les perspectives 2021 La crise sanitaire actuelle a créé des changements durables dans les environnements de travail à travers le monde et ouvre ainsi de nouvelles voies aux cybercriminels. On estime que les dommages liés à la cybercriminalité s’élèveront de 15% d’une année sur l’autre au cours des 5 prochaines années, pour atteindre 10,5 milliards de dollars (soit 8,5 milliards d’euros) d’ici 2025. Etant donné l’exposition croissante des entreprises françaises aux risques cyber, l’Autorité de contrôle prudentiel et de résolution (ACPR) invite fortement les différents acteurs du marché à procéder à une évaluation claire et précise de leurs portefeuilles avec une attention particulière aux garanties implicites. Elle recommande également la mise en place progressive d’une base de données recensant les attaques cyber à des fins purement actuariels (par exemple tarifer au plus juste les contrats cyber risque). Le régulateur propose enfin d’inclure le risque cyber dans le rapport ORSA.  L’enjeu lié à la modélisation du risque cyber est de taille puisqu’à ce jour le marché français ne dispose que d’un nombre limité de données, rendant ainsi caduque les techniques classiques de modélisation actuarielle. La modélisation du risque cyber devra désormais se reposer sur des modèles prédictifs sophistiqués et des volumes de données importants. Certaines méthodes comme les stress tests ou le cyber-rating constituent un réel outil d’aide à la décision et sont en cours de développement. Aussi, les assureurs peuvent transférer une partie ou la totalité de leurs risques via un traité de réassurance en quote-part. Enfin, la mise en application de bonnes pratiques peut limiter les risques de cyberattaques. Dans cette perspective, l’Etat français préconise de nombreuses actions comme par exemple un renforcement du système de sécurité informatique ou encore la mise en place de compagne de sensibilisation auprès des entreprises. Les risques cyber, et les enjeux de données et de modélisation qui y sont rattachés, deviennent partie intégrante des réflexions que les assureurs doivent mener. Dans cette optique, il peut être opportun d’être accompagné sur ce sujet. Les consultants de GALEA accompagnent plusieurs acteurs sur les réflexions sous-jacentes aux travaux d’analyse des risques et de leurs modèles dans le cadre de l’ORSA notamment. Voir le baromètre FAA (statistiques risques émergents 2019 avec projection) Distributed Denial of Service attack DDoS Voir https://www.varonis.com/blog/cybersecurity-statistics/ Voir l’étude HISCOX Voir l’étude CESIN Il s’agit d’une technique frauduleuse destinée à leurrer l’internaute pour l’inciter à communiquer des données personnelles en se faisant passer pour un tiers de confiance Voir l’étude Tend Micro Source : cybermalveillance.gouv.fr Source : Cybersecurity Ventures, https://cybersecurityventures.com/cybercrime-damages-6-trillion-by-2021/ Voir le communiqué ACPR du 12/11/2019 Voir la revue d’économie financière, 2019/3 (N° 135), p. 245-256 Voir l’étude du Forum des Compétences : https://www.forum-des-competences.org/assets/files/cyber-rating-livre-blanc.pdf  Source : https://www.gouvernement.fr/risques/conseils-aux-usagers [...] Lire la suite…
8 novembre 2019La problématique du risque arrêt de travail est complexe tant elle est marquée par une très forte interdépendance entre la santé, le social et l’économique. Dans une conjoncture économique difficile, la hausse constatée de l’absentéisme génère une charge non négligeable pour la collectivité, les entreprises et les assureurs. Afin de mieux comprendre ce risque et tenter d’en réduire l’ampleur, de la prévention et des services se mettent en place, et des modèles statistiques se développent. Des arrêts toujours plus nombreux et coûteux Ces dernières années, les dépenses liées aux arrêts de travail sont en constante augmentation. En effet, après une hausse de 3% environ entre 2016 et 2017, le taux d’absentéisme a augmenté de 8% pour atteindre un taux global de 5,10% en France en 2018, ce qui représente 18,6 jours d’absence en moyenne par salarié. Cette hausse serait principalement due à l’augmentation des arrêts de travail de plus de 90 jours. Les Indemnités Journalières versées en 2018 représentent environ 21 Mds€, prises en charge par la Sécurité sociale à hauteur 15 Mds€, le reste étant versé par les Organismes d’assurance complémentaires. Un enjeu financier majeur pour les assureurs et les entreprises D’après une récente étude, 79% des salariés bénéficient, via un contrat de prévoyance souscrit par leur entreprise, de garanties complémentaires à la Sécurité sociale en cas arrêt de travail. Le marché de la prévoyance (risques décès et arrêt de travail) a généré un volume de cotisations de 22,1 Md€ en 2018 (segments collectif et individuel) et ces montants n’intègrent pas le coût des maintiens de salaires supportés par les entreprises Les enjeux financiers liés à la couverture du risque arrêt de travail sont donc significatifs. Réglementairement, les assureurs sont tenus de provisionner chaque sinistre arrêt de travail en cours d’indemnisation de leur portefeuille. Cette provision matérialise les prestations futures que devra verser l’assureur jusqu’à la fin de l’arrêt. Les provisions représentent donc généralement le poste le plus important d’un compte de résultat. Pour l’évaluation de ces provisions, le taux de rendement financier futur escompté, appelé taux technique, est encadré par la règlementation. Il est censé refléter une vision prudente du contexte économique. Plus ce taux augmente, plus le montant de provision diminue (et inversement). Or, ces dernières années, et plus particulièrement en 2019, les taux financiers ont connu une baisse significative. Le taux financier réglementaire maximum pour l’évaluation des provisions est ainsi passé de 0,62% au 31/12/2018 à 0,43% au 30/09/2019. Il pourrait baisser à 0,3% à fin 2019 d’après les projections, générant une hausse des provisions, toutes choses égales par ailleurs, de l’ordre de 2% en moyenne sur l’année. L’impact de cette baisse des taux, couplée à la hausse du nombre d’arrêts observés, engendrent des hausses de charges significatives pour les assureurs, qui pourraient ne pas avoir d’autre choix que de répercuter une partie de ces hausses sur les cotisations financées par les salariés et par l’entreprise. Pour contrer l’augmentation de l’absentéisme, des solutions se mettent en place Les entreprises doivent donc faire face à une hausse significative des coûts liés à l’absentéisme : Diminution de la productivité ;Hausse des charges liées aux obligations de maintien de salaire prévues par la loi et les conventions collectives ;Hausse des cotisations des contrats de Prévoyance Identifier plus précisément les raisons de cette hausse des arrêts de travail afin d’agir plus efficacement pour éviter les arrêts (prévention) et diminuer leur durée est donc un enjeu primordial. Ces dernières années, la notion de qualité de vie au travail a eu une importance croissante. L’ANI du 19 juin 2013 définit la qualité de vie au travail comme un terme qui « désigne et regroupe sous un même intitulé les actions qui permettent de concilier à la fois l’amélioration des conditions de travail pour les salariés et la performance globale des entreprises, d’autant plus quand leurs organisations se transforment. » Depuis, la loi Rebsamen de 2015 a fait entrer certains thèmes de QVT dans l’une des 3 Négociations Annuelles Obligatoires (NAO). En pratique, la QVT regroupe divers sujets liés à l’environnement de travail, comme la pénibilité, l’équilibre de vie personnelle/professionnelle, ou encore la protection sociale des salariés. Pour les entreprises, la mise en place d’une démarche de qualité de vie au travail génère une amélioration de la productivité de ses salariés selon des études récentes. Au-delà de la QVT, la prévention des risques professionnels peut apparaitre également comme un facteur déterminant dans les réductions des arrêts de travail. En complément, des services spécifiques de mesure de l’absentéisme, prévention ou aide au retour à l’emploi sont développés par certains assureurs. Cependant, les « outils » classiques, qui nécessitent souvent un investissement en temps important pour les services RH, ne permettent généralement qu’un constat a posteriori et l’efficacité des services de prévention reste difficilement mesurable. Face à ces limites, de nouvelles techniques se développent pour permettre une gestion « dynamique » de la problématique : en anticipant et analysant les causes des absences, l’entreprise peut mettre en place les ajustements nécessaires pour limiter le risque (prévention) et éviter les répercussions opérationnelles des absences (désorganisation).Ces modèles mathématiques consistent à rechercher une corrélation entre différentes variables endogènes (propres à l’entreprise) ou exogènes (densité de médecins ou temps de trajet des salariés par exemple), afin de comprendre et “prédire” les arrêts. A partir de cette connaissance fine des groupes identifiés comme “à risque”, l’entreprise et/ou l’assureur peuvent mettre en place : Un plan d’action basé sur des actions de prévention / correction ciblées ;Des indicateurs de suivi. L’objectif est de construire, en lien avec les Ressources humaines, un modèle de prédiction des arrêts permettant d’améliorer les actions de prévention, de mesurer leur efficacité mais également d’optimiser l’allocation des ressources humaines et financières. Galea vous accompagne dans le suivi et le pilotage de vos régimes de protection sociale, ainsi que dans compréhension et la prédiction de votre absentéisme. 11e édition du baromètre de l’absentéisme et de l’engagement mené par le cabinet Ayming en partenariat avec AG2R La Mondiale Etude DREES, Les dépenses de santé en 2018 CTIP, Cahiers statistiques 2018 [...] Lire la suite…
10 juillet 2019La proposition de loi  « visant à interdire l’usage des données personnelles collectées par les objets connectés dans le domaine des assurances » a été renvoyée à la commission des lois constitutionnelles, de la législation et de l’administration générale de la République. Il est souligné que les données récoltées par les IOT notamment dans le domaine médical ou liées au bien-être permettent aux utilisateurs de surveiller/de suivre différents items tels que la nutrition, le poids, le sommeil…  Ainsi, si leur enregistrement peut permettre au corps médical de disposer d’informations supplémentaires pour optimiser un éventuel suivi/détection de pathologie, il ne doit pas être utilisé dans le domaine des assurances pour segmenter les personnes en fonction de leur état de santé, ni pour limiter l’accès à un produit d’assurance  ou encore l’étendue des garanties. Aussi, pour éviter tout abus dans le cadre des assurances : « la proposition de loi suggère d’interdire aux compagnies d’assurance d’utiliser et de traiter de telles données personnelles, et ce, même si elles recueillent en amont le consentement contractuel de l’utilisateur ». Dans ces conditions, le traitement de données à caractère personnel récoltées par un capteur de santé, relatives au mode de vie ou à l’état de santé du preneur d’un produit répondant aux définitions contenues dans le code des assurances ou du code de la mutualité deviendrait interdit. Interdire le traitement de ces données limite le risque de discrimination par les organismes assureurs sur la base de l’état de santé, mais supprime aussi toute possibilité de mise en place de programmes de prévention adaptés. C’est un sujet à suivre de très près ! http://www.assemblee-nationale.fr/15/propositions/pion1603.asp [...] Lire la suite…
28 juin 2019Article écrit en collaboration avec Ellis-Car Le marché de l’assurance automobile est aujourd’hui à un tournant. Dans ce marché déjà saturé, offrant peu de marges et dans l’attente de véhicules autonomes, le développement de nouveaux acteurs vient accroître la compétition. Par ailleurs, la loi Hamon (en facilitant le changement d’assureur) et l’essor des offres pay how you drive rendent de plus en plus difficile la rétention des clients et des bons risques en particulier. Dans les prochaines années, les assureurs automobiles continueront donc à affiner leur capacité à individualiser les tarifs, tout en respectant au mieux le principe de mutualisation des risques, à la base de l’assurance. Ceux qui parviendront à faire payer à chaque assuré son « juste prix » pourront fidéliser leurs adhérents tout en maintenant l’équilibre technique. A l’inverse, des tarifs moins adaptés conduiront à de plus en plus d’antisélection. Le processus tarifaire apparait donc comme le principal levier d’excellence technique. Dans le cadre d’une de leurs travaux, les consultants de Galea ont mené une étude visant à tester deux pistes d’amélioration du calcul de la prime : Classiquement, le calcul de la prime est basé sur un modèle linéaire généralisé (GLM). La première idée est de comparer les résultats obtenus par ce modèle à ceux issus d’approches data science. Ces différents modèles de machine learning (de type CART, Random Forest ou XGBoost) permettent-ils d’améliorer les prédictions et d’affiner les critères de tarification ?L’apport de nouvelles données externes issues notamment de la télématique fournies grâce à notre partenaire Ellis-Car viennent enrichir le modèle. L’intégration de ces données permet-elle d’isoler des comportements spécifiques que les données historiques à disposition des assureurs ne détectent pas ? Cette étude a été menée en partenariat avec Ellis-Car qui propose une solution pour les flottes de véhicules et les particuliers qui associe télématique embarquée, formation et rentabilité. La start-up propose une solution de géolocalisation et de profiling de conduite à l’aide d’un simple smartphone, à destination des flottes d’entreprises. Développés dans le milieu académique, de nombreuses fois récompensés et finement entraînés par des centaines de millions de kilomètres de conduite, les algorithmes auto-apprenants proposés par la startup sont capables de détecter en temps réel toute déviation de comportement de conduite par rapport à l’ensemble des conducteurs. Un système d’alertes vocales et visuelles permet de modifier le comportement des conducteurs de manière très significative et bénéfique pour l’entreprise. Ces améliorations du comportement de conduite sont également durables grâce à la gamification du l’expérience utilisateur. L’algorithme Ellis-Car est basé sur un ensemble de plusieurs couches cartographiques, qui sont alimentés par de nombreuses données de l’Open Data : météo, trafic, visibilité de la route, signalétique des routes, historiques d’accidents, etc. Ces couches sont également enrichies par tout trajet effectué par un conducteur, dans l’objectif de pouvoir comparer des comportements de conduite à l’ensemble de la base de connaissance et d’en estimer le risque. L’étude : Dans un premier temps les méthodes data science sont comparéesà l’approche GLM : Galea a réalisé l’étude sur la sinistralité d’un assureur automobile pour sa garantie responsabilité civile. L’objectif était de modéliser le nombre et le coût des sinistres des assurés, tant par l’approche « classique » GLM que par des méthodes data science et de comparer l’efficacité des différents modèles obtenus. La qualité des modèles a été mesurée par la Root-Mean-Square Error, RMSE (erreur quadratique). Plus la RMSE est basse, meilleure est l’approche. Le tableau ci-dessous indique les résultats obtenus. La meilleure approche est indiquée en rouge. Tableau 1- Synthèse des erreurs sur la base test (RMSE) Pour la prédiction du nombre de sinistres, il s’est avéré que le modèle GLM est le meilleur. Les approches data science affichent un niveau de qualité cependant proche, la meilleure étant Random Forest.Concernant le coût des sinistres, l’approche CART permet une modélisation plus fine que le GLM. L’analyse menée montre que, sur deux exemples, les méthodes data science offrent des performances comparables à celles des modèles linéaires. Dans la plupart des structures, la détermination des tarifs automobile repose aujourd’hui exclusivement sur des modèles linéaires généralisés GLM qu’il est intéressant de challenger par différentes approches, pour déterminer au cas par cas la plus pertinente. Il n’est reste pas moins que le GLM est mieux compris par de nombreux opérateurs et plus facile pour certains à insérer dans leurs systèmes de gestion et dans leurs OAV. Les principales approches data science : Le tableau ci-dessous présente les différentes approches tarifaires étudiées. La pertinence de ces modèles peut être évaluée suivant plusieurs critères : la vitesse d’apprentissage, la facilité d’explication de l’algorithme et l’interprétabilité des résultats qui vont de pair, la facilité de paramétrage des modèles et le pouvoir prédictif des modèles. Le tableau ci-dessous synthétise ces différentes notions. Lecture du tableau : Plus un modèle a de signes « + » pour un critère étudié, plus il est efficient. Il en ressort que les modèles linéaires généralisés présentent de nombreux avantages, et que les résultats des méthodes issues de la data science doivent être nettement meilleurs pour les supplanter. C’est peut-être une des raisons du lent décollage de ces méthodes à l’heure actuelle. Utilisation de données externes issues de la télématique : Dans un second temps, comme évoqué en introduction les modèles ont été renforcés en intégrant des données issues de la télématique, toujours fournies par notre partenaire Ellis-Car. Galea a utilisé des données externes, fournies par un prestataire. Ces données permettent, pour chaque zone géographique, de disposer d’informations sur les typologies de réseaux routiers (pourcentage d’autoroute, densité de population, nombre de feux ou de stops…) et sur les typologies de conduite (vitesse moyenne, nombre d’accélérations ou de freinages…).   L’idée de l’étude était de déterminer dans quelle mesure l’ajout de ces données publiques (donc utilisables potentiellement par n’importe quel assureur) permettait d’améliorer la qualité des modèles tarifaires. Les figures ci-dessous comparent la capacité prédictive des différents modèles avant et après prise en compte des données externes. Dans tous les cas, l’ajout de ces données améliore notablement les modèles cf. graphique ci-dessous : Comparaison de la qualité de la prédiction avant / après intégration des données télématiques En conclusion Aujourd’hui la majorité des assureurs basent leurs tarifs sur des analyses GLM, les modèles de machine learning étant globalement peu déployés. Pourtant, ces méthodes s’avèrent souvent pertinentes, voire parfois plus performantes a priori que les approches classiques. Il sera intéressant à l’avenir de tester les deux familles d’approches lors des revues des tarifaires et de déterminer au cas par cas celle qui est la plus pertinente, en mettant en perspective les gains techniques espérés et les coûts issus de l’application des nouvelles méthodes. Concernant l’apport des données télématiques, cette étude montre, de façon non équivoque, que l’ajout de données externes permettent d’améliorer significativement la pertinence d’un tarif et notamment de mieux prédire les nombres de sinistres enjeu considérable en assurance auto. Le cabinet GALEA & associés et Ellis-Car vous propose de vous assister dans le cadre de l’enrichissement de vos bases de données et l’amélioration de vos algorithmes via le feature engineering. Les experts actuaires et data scientists vous accompagnent dans la réalisation d’études prédictives avec l’utilisation d’algorithmes et leur interprétation dans tous les domaines techniques : création de produits innovants, tarification, provisionnement, optimisation de la réassurance. Algorithmes appartenant à la famille des méthodes « supervisées ». [...] Lire la suite…
15 mars 2019A l’ère de la digitalisation, le modèle de distribution des assureurs a connu des modifications majeures. Les réseaux de distribution dits physiques ou traditionnels de l’assurance que sont les agents généraux, les courtiers, les bancassureurs, ou encore les affinitaires ont été largement bousculés par le développement d’internet. Les sites internet des assureurs, des intermédiaires comme les comparateurs d’assurance, et tout autre portail de E-commerce proposant des produits à assurer deviennent de nouveaux canaux de distribution à part entière. A cela s’ajoute la disponibilité de données grâce à ces nouveaux canaux de distribution et grâce à l’Open Data. Que faire de ces données, comment peuvent-elles être utiles aux assureurs ? La question est celle de leurs bonnes utilisations par les assureurs pour capter des clients, les fidéliser/limiter le taux d’attrition (churn), augmenter le taux de couverture, créer de nouveaux produits pour répondre aux besoins qui ressortent des analyses. Pour cela, il faut connaître les attentes et les besoins des clients et y répondre au moment opportun grâce aux différents points de contact numériques (touchpoints). A noter que le pilotage stratégique par la donnée (data driven) ne peut se faire que dans des organisations prêtes à traiter ces données. C’est dans ce contexte que le marketing prédictif est venu chambouler les méthodes classiques de la relation client. La temporalité n’est plus la même, le cycle de vente est accéléré grâce à la qualification des détections de signaux d’intérêt (leads) et à leurs scorings (leads scoring). En effet, le marketing prédictif se base sur l’étude des données disponibles et utilise des techniques de Data Science, d’intelligence artificielle pour cibler les attentes des clients concernant de nouveaux produits et ce, en amont de la relation et non plus uniquement en aval. C’est une véritable opportunité pour les assureurs d’anticiper et projeter les attitudes observées en utilisant des algorithmes performants, dans le respect de la RGPD. Ainsi, l’analyse des comportements des assurés n’est plus seulement basée sur les données du portefeuille de l’assureur, ces données sont aujourd’hui enrichies des données externes (réseaux sociaux, open data, entrepôt de données constituées par des start-ups, etc.). Elles permettent aux algorithmes « de mieux apprendre » et donc « de mieux prédire » les différents comportements des assurés et de tirer profit des informations : qu’il s’agisse de fraude, de mieux identifier les risques (par la géolocalisation par exemple), de prédire l’acquisition d’un nouveau client ou de multi-équiper (proposer plusieurs contrats à un client), de prédire une résiliation. Le marketing prédictif intervient à différents moments clés du parcours de client. L’essor des réseaux sociaux et les services publics open data permettent d’affiner au plus juste ces modèles, ce qui permet d’avoir des modèles toujours plus crédibles. La clé du succès est l’adaptabilité et le test & learn. Même si ces vecteurs de distribution augmentent considérablement la pression concurrentielle, ils sont également des sources d’informations importantes. Ils permettent, en effet, à l’assureur d’appréhender autrement l’assuré : avoir une meilleure compréhension de ses besoins, les anticiper, optimiser la qualité de ses services, créer de nouveaux produits ou encore de proposer au moment opportun le contrat d’assurance à un assuré. En se dotant d’outils issus de la Data Science, l’assureur pourra conserver un avantage concurrentiel. Les comparateurs peuvent avoir un rôle non négligeable en matière de récolte de la donnée. Leur proposition de valeur est de donner à l’assuré une meilleure compréhension des garanties et peuvent donner une vision du marché, qui reste malgré tout parcellaire. En contrepartie, les assurés doivent remplir un champ considérable de données personnelles. Il convient de rappeler qu’ils sont soumis aux mêmes règles d’exigence de conseil que les courtiers. Plusieurs axes sont possibles pour développer le marketing prédictif au sein d’une compagnie d’assurance : Les techniques d’apprentissage automatique (machine learning) sont aujourd’hui, celles qui sont le plus efficaces, dans le domaine du marketing prédictif. L’analyse de clics pour prédire la souscription d’une option d’assurance : une des analyses les plus courante est l’analyse du parcours client sur le site de l’assureur, l’analyse de clics courante au sein des compagnies d’assurance est de prédire quelle option d’assurance un client va souscrire. Maîtriser toutes ces techniques présente un atout non négligeable pour faire face à la concurrence. Pouvoir prédire au plus juste les risques, la volatilité des comportements des assurés afin d’anticiper, de les maîtriser autant que possible, de proposer les tarifs les plus justes, les services les plus appréciables est un véritable avantage qui permet aux assureurs de se démarquer. Cependant le marketing prédictif n’est pas une baguette magique mais doit être utilisé afin d’infirmer ou de confirmer une position, une décision ou une orientation de stratégie. Un aspect ne doit pas être négligé en amont de l’utilisation du marketing prédictif, c’est de faire en sorte qu’en interne l’entrepôt de données (data lake) de l’assureur soit utilisable et que la donnée soit de qualité. L’objectif est bien d’utiliser de manière efficace la donnée afin d’appréhender au mieux le risque assurantiel. Les actuaires Data Scientist sont les plus à même d’être pertinents sur le sujet grâce à leur double connaissance du métier de l’assurance et des techniques de la Data Science. Le cabinet GALEA & associés propose de vous accompagner dans le cadre de la qualité de vos données, l’analyse des comportements de vos assurés et la valeur client. Les consultants de GALEA, experts en Data Science pour l’Actuariat, sont à votre disposition pour partager leur expérience et leurs compétences dans les meilleures pratiques actuelles du marché de l’assurance. [...] Lire la suite…
8 mars 2019Depuis le 1er mars 2019, les entreprises de plus de 1 000 salariés sont tenues de publier leur index en matière d’égalité Femmes / Hommes défini par le Décret n° 2019-15 du 8 janvier 2019. Cet index se décompose en 5 critères : l’écart de rémunération entre les femmes et les hommes, l’indicateur relatif aux augmentations salariales annuelles, l’indicateur relatif aux promotions, l’indicateur relatif aux femmes de retour de congé de maternité ou d’adoption, mixité parmi les plus hautes rémunérations. Bien que la mise en place de cet index montre la volonté du Gouvernement de combattre les discriminations salariales en fonction du sexe, certains points sont critiqués. Il s’agit notamment de l’indicateur relatif aux augmentations salariales annuelles, qui se calcule à partir du pourcentage de salariés augmentés dans l’année, sans faire référence aux montants correspondants. Une des principales sources d’inégalité concerne l’écart de rémunération entre les femmes et les hommes. L’indicateur proposé par le Gouvernement permet-il d’identifier la totalité des femmes discriminées ? Permet-il ensuite de mesurer l’efficacité des actions prises ? La mise en place d’une méthode commune à l’ensemble des entreprises, source de simplicité et d’homogénéité de traitement a priori, empêche de déceler certaines discriminations. La politique salariale propre à chaque entreprise ainsi que les caractéristiques de leurs salariés devraient être prises en compte dans une analyse plus fine afin de cibler de manière plus pertinente les femmes réellement discriminées et d’engager des actions légitimes. Par exemple, les tranches d’âges de 10 ans fixées par l’index sont-elles pertinentes pour chaque entreprise ? La prise en compte de l’ancienneté du salarié dans l’entreprise ou de sa performance permettraient-elles d’affiner la liste des femmes discriminées ? Comment intégrer les informations à disposition des ressources humaines dans la recherche de femmes discriminées ? De plus, l’index intègre un seuil de pertinence et exclut donc certaines discriminations. Doit-on considérer comme non discriminées les femmes dont les écarts de rémunération sont inférieurs à ce seuil ? L’index fournit par le Gouvernement et les sanctions en cas de non obtention d’une note minimale constituent une avancée indéniable dans la recherche de la résolution de situations inexplicables. Des études spécifiques devront être menées au sein de chaque entreprise pour aller au-delà et définir les plans d’actions les plus adaptés pour corriger les discriminations. Le Cabinet GALEA & Associés intervient auprès de grandes entreprises depuis plusieurs années sur la discrimination salariale Femmes / Hommes ainsi que son évolution et propose de vous accompagner dans ces travaux et de répondre à ces questions. Des modèles de Data Science / Machine Learning seront utilisés afin de mettre en exergue les femmes discriminées, si celles-ci existent, et les évolutions de salaires nécessaires pour gommer ces inégalités en prenant en compte l’ensemble des informations disponibles. Décret portant application des dispositions visant à supprimer les écarts de rémunération entre les femmes et les hommes dans l’entreprise et relatives à la lutte contre les violences sexuelles et les agissements sexistes au travail [...] Lire la suite…
22 février 2019Le sujet occupe le devant de la scène. Si tous, gouvernement, entreprises, syndicats, salariés veulent y parvenir, de nombreuses questions restent encore en suspens. Catherine Reichert, Vice-Présidente Communication du Comité ONU Femmes France (la représentation française de l’agence des Nations Unies pour l’égalité des sexes et l’autonomisation des femmes) et Léonard Fontaine, Manager, Actuaire Data Scientist, du cabinet de conseil en gestion des risques GALEA , qui accompagne les entreprises dans leur diagnostic et la mise en place d’actions correctrices, échangent sur les enjeux et moyens d’une réelle égalité professionnelle. Comment définissez-vous l’égalité professionnelle ?  Catherine Reichert : L’égalité professionnelle est le fait de bénéficier, tous et toutes, à compétences égales, du même traitement et des mêmes chances d’accès à l’emploi, à la promotion et d’absence de différenciation en matière de rémunération et de déroulement de carrière. Une définition à laquelle s’ajoute le fait d’évoluer dans un environnement libre de sexisme et de toute forme de violences ou de discriminations. Aujourd’hui, cette égalité est loin d’être une réalité. En France, une femme gagne en moyenne 25% de moins qu’un homme – 9% à poste de travail équivalent par an selon l’Insee (Chiffres de l’Insee). Au niveau mondial, pour chaque euro gagné par les hommes, les femmes gagnent 77 centimes. Une différence telle que l’on estime qu’à ce rythme, nous ne connaîtrons pas l’égalité salariale avant 2069. Léonard Fontaine : D’un point de vue objectif et technique, l’égalité professionnelle c’est le fait pour les femmes et les hommes d’avoir les mêmes salaires et les mêmes avantages, à compétences et postes comparables. Après une période d’incitation, le gouvernement s’engage aujourd’hui dans une logique de résultats. Depuis la loi avenir professionnel de 2018, tous les employeurs de plus de 50 salariés doivent mettre en place un accord relatif à l’égalité professionnelle entre les femmes et les hommes. Dès 2019, ils auront l’obligation de publier les résultats d’un Index en 5 critères : écarts de rémunération, écarts de taux d’augmentations individuelles, écarts de taux de promotions, pourcentage de salariées ayant bénéficié d’une augmentation au retour de leur congé maternité et nombre de « salariés du sexe sous-représenté » parmi les 10 plus hautes rémunérations. Les entreprises de plus de 1000 salariés devront s’y plier au 1er mars, celles de plus de 250 salariés au 1er septembre et celles de plus de 50 salariés au 1er mars 2020.  A la clé, des contrôles et interventions de l’inspection du travail renforcés et un délai de 3 ans pour corriger les écarts enregistrés. Plus contraignant, des sanctions pouvant aller jusqu’à 1% de la masse salariale en cas de non correction… Peut-on faire de l’égalité professionnelle une réalité ?  Catherine Reichert : nous devons oeuvrer dans ce sens. Cela implique d’agir à différents niveaux : d’une part, sur les lois et les politiques publiques, d’autre part sur les stéréotypes et les mentalités. En France, dans le secondaire, les filles sont généralement meilleures en sciences. Elles sont majoritaires dans l’enseignement supérieur mais sont sous-représentées dans les formations scientifiques et technologiques – 28 % dans les écoles d’ingénieurs (chiffres 2016-2017). A l’international comme en France, la moitié de l’emploi des femmes se concentre dans 12 des 87 familles de métiers avec une sur-représentation des femmes dans les travaux à vocation sociale, autour du « care » . Des métiers généralement moins valorisés socialement et aussi moins bien payés. En cause le poids des stéréotypes ainsi que le manque de rôles-modèles. Dans le cadre des Objectifs de développement durable, afin de résorber la différence de salaire d’ici 2030, ONU Femmes travaille actuellement en partenariat avec l’OCDE et l’OIT sur l’Equal Pay International Coalition (EPIC), ou « Coalition internationale pour l’égalité salariale », de manière à ce que le principe de salaire égal pour travail de valeur égale, inscrit dans la constitution de l’OIT de 1919, devienne réalité. L’égalité professionnelle passe par un travail des pouvoirs publics à travers à la mise en place d’outils de protection sociale, de services tels que des congés parentaux plus longs et mieux rémunérés, ainsi qu’au niveau des entreprises, en assurant un environnement de travail adapté à la vie familiale. Cela passe également par des mesures coercitives pour permettre aux femmes d’accéder aux plus hautes fonctions, comme dans les conseils d’administration, ou autour de la transparence sur les salaires. ONU Femmes propose aux entreprises un outil permettant de mettre en place des mesures en faveur de l’égalité professionnelle : une charte sur les Principes d’autonomisation des femmes. A travers un engagement au plus haut niveau, les entreprises peuvent s’inspirer des meilleures pratiques et améliorer ainsi les conditions de travail et la performance de l’ensemble de leurs collaborateurs et collaboratrices. De manière générale, toute la société gagne lorsque l’on progresse vers plus d’égalité : les femmes gagnent en indépendance, investissent davantage dans l’éducation et la santé de leurs enfants. Les organisations sont plus efficaces et gagnent en performance. Une recherche récente montre que réduire les inégalités au travail dans les 20 prochaines années représenterait un gain de 6 % du PIB dans les économies plus avancées . L’égalité professionnelle est à la fois une question de droits et un enjeu stratégique et économique pour le développement des entreprises et du monde en général. Léonard Fontaine : c’est assurément une question de droits, encore faut-il correctement mesurer les écarts qui subsistent avant d’y remédier. Les critères de l’index constituent une règle unique pour toutes les entreprises, mais chacune a ses spécificités en termes de masse salariale et de métiers, et les résultats pourraient ne pas faire apparaitre certaines des inégalités. En utilisant les techniques de Data Science, nous avons, chez GALEA & Associés, pu affiner ces évaluations pour mettre en lumière des écarts de rémunération statistiques et faire en sorte de les gommer selon un pilotage à déterminer par la Direction de l’entreprise. Après un état des lieux de ce qui est pratiqué en matière de rémunérations dans l’entreprise et une analyse fine des données issues du Système d’Information RH -dans le respect du RGPD – les techniques de Data Science vont permettre d’identifier des catégories de femmes (ou d’hommes) pour lesquels des écarts apparaissent et nécessitent des explications des Directions des Ressources Humaines. Leur rôle est crucial pour pouvoir retranscrire leurs connaissances métier et leur connaissance de la culture de l’entreprise dans l’interprétation des données. Ensuite, le budget spécifique qui sera alloué par l’entreprise afin de gommer les inégalités avérées devra cibler efficacement des rattrapages. Enfin, la mise en place d’indicateurs pertinents permettra de suivre dans le temps les écarts de rémunération et de s’assurer qu’ils se réduisent grâce aux actions entreprises. Il est particulièrement important de décomposer ces phases d’états des lieux, d’analyse, de pilotage et de corrections. Un processus complet et au moins annuel mérite d’être mis en place. En effet, il est important que la Direction des Ressources Humaines appréhende ces différentes étapes afin de communiquer au mieux tant auprès de ses partenaires sociaux que de ses salariés, et également auprès des services RH chargés de la mise en œuvre opérationnelle. Dans la lutte contre les inégalités professionnelles, notre rôle de techniciens data scientists consiste à aider les entreprises à les mesurer de la façon la plus précise et juste qui soit pour mieux les éradiquer. Avez-vous vu des évolutions en la matière ces dernières années ? Catherine Reichert : Le mouvement #MeToo est un marqueur fort d’une prise de conscience de la part des femmes et des hommes de l’impact négatif du sexisme dans tous les champs de la société, y compris au travail. Nous vivons un momentum. La libération de la parole a permis de porter au devant de la scène des sujets souvent tabous qui sont le quotidien de nombre de femmes et de filles. Un rapport du Conseil Supérieur de l’Egalité Professionnelle entre les femmes et les hommes (CSEP) pointait en 2015 que 80 % des femmes sont régulièrement confrontées à des attitudes ou des décisions sexistes au travail, qui ont des effets négatifs sur leur sentiment d’efficacité . Dans ce mouvement, il est nécessaire d’impliquer les hommes pour déconstruire les normes sociales négatives qui restreignent les choix et les opportunités de chacun et chacune. C’est tout l’objectif de la campagne HeForShe et de ses IMPACT et Thematic Champions dont le PDG de Danone, qui offre un congé parental de 18 semaines à ses collaborateur.rice.s dans plus de 130 pays. C’est à travers ces actions que l’égalité femmes-hommes progresse, et avec elle l’ensemble de la société. Léonard Fontaine: Galea, avec ses équipes de data scientists et des partenaires RH et Compensation & Benefits, a pu travailler pour de grands groupes internationaux (ou uniquement implantés en France) qui ont souhaité s’impliquer sur ce sujet. Les RH ont pris conscience de son importance politique. Que ce soit sur des filiales à l’étranger ou en France, les techniques de Data Science ont pu faire leurs preuves. Nous avons noté ces deux dernières années une volonté des Ressources Humaines de pouvoir aborder la question de manière rationnelle : établissement d’un état des lieux, mise en place d’un plan d’action pour les années à venir, mesure de l’efficacité du plan d’action. La mise en place de ces méthodes innovantes est très bien accueillie en interne, tant par les salariés que par les partenaires sociaux. Force est de constater que ces sujets sont structurants pour la politique des ressources humaines. Ces travaux permettent souvent de déboucher sur d’autres travaux visant à identifier les causes des arrêts de travail et les plans d’actions de prévention à mettre en place pour diminuer l’absentéisme, tous ces éléments ayant bien sûr un impact sur la qualité de vie au travail.  A propos du Comité ONU Femmes France Le Comité ONU Femmes France est l’association loi 1901 d’intérêt général qui représente ONU Femmes – l’agence des Nations Unies pour l’égalité des sexes et l’autonomisation des femmes – en France depuis 2013. Il réunit des femmes et des hommes bénévoles, issus de différents secteurs d’activité (privé, associatif et institutionnel) qui s’engagent pour le plaidoyer et la promotion de l’égalité entre les femmes et les hommes. Le Comité ONU Femmes France soutient les programmes de terrain d’ONU Femmes au plan mondial en mobilisant la générosité des donateurs et du grand public et en développant des partenariats avec des acteurs institutionnels, entrepreneuriaux et événementiels. Pour en savoir plus : www.onufemmes.fr  @ONUFemmesFR sur Twitter A propos de Galea Cabinet de conseil indépendant, nous accompagnons les entreprises et les organismes d’assurances dans la gestion de leurs risques et le suivi des régimes de protection sociale (Prévoyance, frais de santé, retraite et épargne salariale). Les travaux habituels couvrent 3 domaines : stratégie assurance, conseil actuariel et transformation numérique (application des méthodes de Data science pour le suivi de l’égalité Femmes/ Hommes, QVT, arrêts de travail, Fraude…). Notre cabinet compte 40 consultants et offre ainsi des solutions rigoureuses et innovantes adaptées aux enjeux actuels des métiers de l’assurance. Pour en savoir plus : www.galea-associes.eu  Lydia O’Connor, The Huffington Post (2016). The Wage Gap: Terrible For All Women, Even Worse For Women Of Color. http://www.huffingtonpost.com/entry/wage-gap-women-of-color_us_570beab6e4b0836057a1d98a Vidéo « L’égalité, on a tou.te.s à y gagner » sur le manque de mixité du Ministère des Familles, de l’Enfance et des Droits des femmes (2016) :   https://www.egalite-femmes-hommes.gouv.fr/3-au-9-octobre-semaine-de-legalite-professionnelle-entre-les-femmes-et-les-hommes/ Recherche de Citi (2017) : https://ir.citi.com/rxehymXStWqV7Y6S58ExJLPdJPjqZicwdoxqT%2Fc0qDsBMFxbL%2FzcJiG%2FgKE%2BRxwHcad8oQrgD1w%3D CSEP : Le sexisme dans le monde du travail, entre déni et réalité (2015) : http://femmes.gouv.fr/wp-content/uploads/2015/03/RAPPORT-CSEP-V7BAT.pdf [...] Lire la suite…
19 février 2019« Un robot ne peut pas faire de mal à un être humain, ni, par son inaction, permettre qu’un être humain soit blessé » (Première Loi de la robotique de Isaac Asimov 1942).Aujourd’hui les assureurs sont plus que jamais confrontés à une nécessaire amélioration de leurs performances, vendre mieux et plus, gérer mieux et plus vite. Ces nécessaires accélérations ne seront possibles qu’avec une utilisation plus massive des nouvelles technologies.En effet, bien au-delà d’optimiser les processus, l’automatisation et la robotisation permettent d’une manière plus simple et efficace de simplifier et d’optimiser le traitement de certaines tâches à tous les niveaux de l’organisation (gestion, vente, contrôle et reporting).Si le monde de l’industrie a emboîté le pas aux auteurs de science-fiction dès les années 50, le développement des sciences cognitives permet maintenant d’envisager son déploiement dans le secteur tertiaire sur des services à valeur ajoutée. Le monde de l‘assurance est bien entendu directement concerné.Où en êtes-vous ? Quelle est votre vision ? Quels sont vos projets ? Nous souhaitons réaliser une grande enquête nationale auprès des acteurs du marché de l’assurance.En répondant à ce questionnaire qui ne vous prendra que 5 minutes vous recevrez ainsi gratuitement le résultat détaillé et commenté de cette enquête. https://docs.google.com/forms/d/1lYMeJyt30KnyoE9LlXdXJvrxVR45rjJ3Gt-d7TSjhk0/viewform?ts=5c4ad3f9&edit_requested=true [...] Lire la suite…
8 février 2019La mission de préfiguration du « Health Data Hub » a proposé à Agnès Buzyn, Ministre des Solidarités et de la Santé, une feuille de route pour sa mise en œuvre opérationnelle d’exploitation des données de santé. Pour rappel, le « Health Data Hub » répond à la stratégie du gouvernement relative à « l’Intelligence Artificielle Nationale ». Lors de la remise du rapport Villani, le Président de la République l’avait qualifié de point fort de la stratégie intelligence artificielle française. Il a pour objectif de favoriser l’utilisation et de multiplier les possibilités d’exploitation des données de santé en : Mettant à disposition des données, de qualité ; Respectant la transparence et la sécurité pour répondre aux contraintes de la RGPD ; Mettant à disposition un guichet unique ; Mutualisant les technologies et les expertises ; Promouvant l’innovation. Les domaines concernés sont ceux de la recherche, de l’appui au personnel de santé, du pilotage du système de santé, du suivi et de l’information des patients. Le « Health Data Hub » reprendra les missions de l’Institut national des données de santé (INDS) et prendra la forme juridique d’un groupement d’intérêt public (GIP) Pour information : https://drees.solidarites-sante.gouv.fr/etudes-et-statistiques/acces-aux-donnees-de-sante/article/health-data-hub Ce dispositif permettra une meilleure exploitation des bases en open data. Ces dernières sont généralement des données très  agrégées qui nécessitent d’être enrichies  par l’apport de données externes.  Cet enrichissement croisé avec la technique de «  feature engineering » (création de nouvelles variables) permet des analyses plus fines et de meilleures prédictions des algorithmes par les Actuaires Data Scientist. Les Actuaires Data scientist de Galea suivent ces différentes évolutions pour vous accompagner et vous conseiller sur les différents sujets : création de produits, suivi de portefeuilles, tarification… [...] Lire la suite…
1 février 2019et la Direction technique de LA PARISIENNE Assurances La prédiction des sinistres graves est un enjeu majeur en assurance IARD. Bien que leur fréquence soit faible, l’impact de ces sinistres sur le résultat est en effet significatif dans la mesure où ils sont potentiellement extrêmement coûteux. Ce sujet est particulièrement important dans le secteur de l’assurance automobile où les corporels peuvent engendrer des dépenses considérables sur de longues périodes de temps. La modélisation des« graves » et plus particulièrement de leur fréquence, est donc un point crucial pour bien appréhender la prime pure d’un assuré. La fréquence des sinistres est traditionnellement appréhendée à l’aide de modèles linéaires généralisés (GLM). Ces dernières années ont vu la démocratisation des algorithmes d’apprentissage statistique qui s’avèrent souvent plus performants. Une étude commune à été mené entre LA PARISIENNE ASSURANCES et GALEA, dont l’objectif était de déterminer le modèle de prédiction le plus pertinent à mettre en place pour modéliser la fréquence des graves. L’étude visait également à analyser l’interprétabilité des résultats des différents algorithmes étudiés. Suite aux traitements des données nous avons déterminé un seuil de grave par comparaison de quatre méthodes. Deux méthodes de rééchantillonnage, ROSE et SMOTE, ont été appliquées pour pallier le faible nombre de polices ayant fait l’objet d’un sinistre. (Seul 1,2% de sinistre dépassait le seuil). La fréquence de ces sinistres a ensuite pu être modélisée, dans un premier temps avec un Modèle Linéaire Généralisé puis à l’aide d’algorithmes d’apprentissage prédictif comme l’arbre de décision CART, la forêt aléatoire, et l’extreme gradient boosting. Enfin, les modèles ont été comparés du point de vue de leurs performances et de leur interprétabilité. Les graphiques partial dependence plots et l’algorithme LIME ont été utilisés pour comprendre et rendre plus transparent les modèles utilisés (parfois perçus comme des « boîtes noires »). Le graphique suivant présente la méthode LIME appliquée à deux individus pour le modèle de forêt aléatoire optimisée et entraînée sur la base rééchantillonnée avec la méthode ROSE. En conclusion, les modèles d’apprentissage statistique de notre analyse s’avèrent plus performants que le GLM. Dans cette étude, et en pratique, l’algorithme de forêt aléatoire optimisé et entraîné sur une base rééchantillonnée avec ROSE semble être un bon compromis pour modéliser la fréquence des graves en assurance automobile. D’une part, ce modèle est particulièrement performant, bien plus que le GLM habituellement utilisé ou qu’un arbre de décision classique. D’autre part, son optimisation est aisée et rapide contrairement à l’extreme gradient boosting – sensiblement plus consommateur de temps. Ceci représente un atout majeur lors de son application par une structure d’assurance. Enfin, divers outils peuvent être mis en place pour rendre ce modèle interprétable (graphique représentant l’importance des variables, partial dependence plots, ou la méthode LIME). Le tableau ci-dessous synthétise ces différentes notions points pour les quatre modèles testés dans cette étude. Modèle Interprétabilité des résultats Facilité d’explication de l’algorithme Pouvoir prédictif* Facilité à paramétrer** GLM Facile Facile 1 Facile Arbre de décision Facile Assez facile 2 Moyen Forêt aléatoire Difficile Plus difficile 3 Moyen XG Boost Difficile Plus difficile 4 Difficile * Indice de 1 à 4 : 1 étant le moins prédictif et 4 le plus prédictif ** Dans notre étude la forêt aléatoire a été optimisée pendant deux heures alors que l’extreme gradient boosting a été optimisé pendant une journée. QQ-plot, graphique de Hill, graphique de dépassement moyen, et graphique de Gerstengarbe Local Interpretable Model-Agnostic Explanations (LIME) permet d’obtenir des informations sur une observation précise et sur les variables les plus influentes dans la prédiction de celle-ci. [...] Lire la suite…
31 janvier 2019A l’ère de la révolution numérique en santé, deux enjeux se dessinent plus particulièrement :  l’accès aux soins à distance et l’exploitation des données de santé. La télémédecine, une nouvelle pratique médicale ? On définit l’e-santé comme étant l’usage des techniques de l’information et de la télécommunication dans le domaine de la santé et du bien-être. Le patient devient dans cette démarche acteur de sa santé. L’innovation numérique principale dans le domaine médical qui pourrait être citée est la télémédecine. Ce terme désigne des prestations santé à distance et l’échange d’informations médicales tout en s’appuyant sur la technologie des télécoms et du numérique. Elle permet de mettre en relation un patient et un ou plusieurs spécialistes de la santé. Cette santé dite « connectée » a l’atout d’être dématérialisée. De ce fait, la télémédecine peut apparaitre comme une solution à exploiter pour pallier les problèmes des déserts médicaux. En effet, ce sujet étant de plus en plus préoccupant, la télémédecine, et plus précisément la téléconsultation, peuvent se révéler être une solution efficace. A titre d’exemple, d’ici 2020, tous les Ehpad situés dans les déserts médicaux devront être équipés d’un matériel de téléconsultation. Cette nouvelle manière de soigner peut faciliter l’accès aux soins notamment pour les personnes âgées, à mobilité réduite, ou encore atteintes de maladies chroniques et nécessitant un suivi régulier voire quotidien, en leur permettant de ne pas se déplacer. Il est cependant important de souligner que la télémédecine n’a pas pour vocation de remplacer la médecine traditionnelle, elle permet de s’affranchir avant tout des barrières géographiques. 2018 est une année déterminante pour la télémédecine du fait de l’issue positive des négociations menées pour la prise en charge de la téléconsultation par la Sécurité sociale. En effet, l’assurance maladie et les syndicats de médecins sont parvenus à un compromis débouchant sur la prise en charge et la généralisation de la télémédecine à partir du 15 septembre 2018. Avec de nombreux acteurs de l’assurance intégrant des start-ups spécialisées en e-santé au cœur de leurs stratégies, plusieurs plateformes sont mises en place afin d’accéder à la téléconsultation (téléphone, messagerie instantanée, visioconférence et autres). Pionnier du domaine avec 10.000 téléconsultations par an, Axa a prévu d’innover au cours de 2018. L’assureur ayant déjà installé des cabines de téléconsultations directement chez certaines entreprises clientes, développera plus massivement ce concept pour les clients de sa complémentaire santé. Elles permettront aux salariés d’entrer en communication avec des professionnels de santé afin d’effectuer des diagnostics ou des examens complémentaires (tension, rétine). La Data Science au cœur de la santé Le traitement des données par les organismes d’assurance est une question primordiale notamment au moment même où de nouvelles contraintes s’imposent avec l’entrée en vigueur du RGPD. Ce sujet doit être étudié et suivi avec la plus grande rigueur. La mise en place d’un entrepôt de l’ensemble des données interne à disposition des organismes d’assurance puis alimenté par des données externes permet la réalisation d’études de plus en plus pertinentes avec cet enrichissement des données. En effet la France dispose de la plus importante base de données médico-administrative au monde, le SNDS (Système National des Données de Santé). Alimentée par plus de 1,2 milliard de feuilles de soins annuelles envoyées à l’Assurance maladie, cette base comprend non seulement l’ensemble des diagnostics réalisés par les médecins, les actes et les médicaments prescrits, mais également le remboursement de l’Assurance maladie pour chaque acte réalisé. Dans le respect du RGPD (Règlement Européen sur la protection des données), ce volume important de données permet, avec l’utilisation de méthodes statistiques issues de la Data Science, d’améliorer les stratégies de réduction du coût de la santé, d’optimiser le parcours de soin, et de travailler plus en amont les questions de prévention. Le SNDS permet entre autres de réaliser des études épidémiologiques visant à évaluer la distribution des maladies et des facteurs qui y contribuent sur les populations humaines et ainsi améliorer les actes les préventions. Des études statistiques peuvent aussi être réalisées afin d’évaluer le coût pour l’Assurance maladie d’une pathologie donnée et donc de maitriser le budget selon les pathologies existantes. Cette démarche facilite aussi notamment la veille sanitaire en évaluant en temps réel les maladies et en ajustant les niveaux d’alerte. L’e-santé et la Data Science sont deux pistes d’avenir dans le domaine de la « santé numérique ». Le Gouvernement, les organismes d’assurance, les start-ups et les réseaux de soins se sont saisis du sujet pour trouver les solutions les plus pertinentes. Galea suit et travaille ces sujets dans le cadre de ses missions. [...] Lire la suite…
29 janvier 2019Intelligence artificielle, Big Data, Data Science, Machine Learning, Deep Learning, … De plus en plus d’acteurs du marché de l’assurance santé ou du monde médical s’intéressent à ces notions relativement nouvelles. En effet, du fait de l’augmentation exponentielle des capacités de stockage, les bases de données se multiplient et s’enrichissent : on parle alors de Big Data. C’est dans le but de traiter et d’analyser au mieux cette masse nouvelle de données qu’est née la discipline des Data Science. Celle-ci peut être définie comme un mélange entre les mathématiques, les statistiques et l’informatique et emploie des méthodes d’un nouveau genre. L’assurance santé n’échappe pas à ce phénomène : le nombre de bases de données disponible en open source sur internet ne cesse d’augmenter. Néanmoins, les données santé restent un sujet sensible en France et en Europe (RGPD) et leur potentiel n’est pas encore exploité en totalité. Les modèles Data Science permettent de gérer des bases de données de taille importante et ainsi de valoriser au mieux les données à disposition. Pour aller plus loin, ces modèles peuvent également autoriser la prise en compte de nouvelles variables d’origine externe. En effet, les modèles de tarification ou de suivi du risque en santé se basent le plus souvent sur des variables internes à l’entreprise (Age du salarié, Ancienneté du contrat, Catégorie socio-professionnelle, …). Les données externes apportent de nouvelles informations dans l’analyse de la consommation médicale des salariés. Ces nouvelles variables portent aussi bien sur l’environnement socio-économique (nombre d’équipements de santé dans la commune ou dans le département, revenu médian, structure démographique, etc.) que sur le domaine d’activité de l’entreprise considérée (proportion de cadres ou d’ouvriers, statistiques sur la concurrence, résultats, etc.). La mise en place de ces modèles, avec l’apport de nouvelles données, permet de mieux cerner les besoins spécifiques de l’entreprise, d’améliorer le pilotage des contrats et d’envisager des actions de prévention adaptées. De plus, les modèles issus des Data Science nécessitent un temps d’implémentation moindre que les modèles actuels et sont réputés plus agiles. Ils présentent donc un avantage significatif dans un domaine où l’actualité est particulièrement chargée avec la mise en place récente des contrats responsables et celle future de la réforme « 100 % Santé ». Une meilleure connaissance des besoins et de la consommation des salariés sur la complémentaire santé peut ainsi permettre : Une amélioration du pilotage des régimes en anticipant les évolutions comportementales (identification des facteurs de consommation et projection des résultats, évolution des adhésions aux options en cas de modifications réglementaires et/ou des périmètres couverts, mesure de l’impact de l’absentéisme, etc.). La création de politiques de prévention plus ciblées et donc mieux adaptées avec pour objectif non seulement la maîtrise des dépenses de santé mais également la gestion de l’absentéisme. La Loi de modernisation du système de santé, promulguée le 26 janvier 2016, faisait d’ailleurs de la prévention un de ses trois objectifs principaux avec l’accès aux soins et l’innovation. Les dispositions du Projet de Loi de Financement de la Sécurité sociale pour 2019 semblent également poursuivre le développement de ces axes majeurs. Galea vous accompagne dans le pilotage de vos régimes et la mise en place de techniques de Data Science grâce à ses Actuaires Data scientists. [...] Lire la suite…
29 janvier 2019Les capacités technologiques augmentant à une vitesse vertigineuse, les bases de données se multiplient et s’agrandissent. Face à cette nouvelle masse importante de données, les modèles actuariels classiques deviennent perfectibles : la discipline de la « Data Science » est née. Celle-ci peut être définie comme une combinaison de techniques mathématiques, statistiques et informatiques et emploie des méthodes d’un nouveau genre. A l’origine évoquée dans des domaines tels que l’astronomie ou la génétique, ces notions peuvent désormais s’élargir à différentes sortes d’applications (politique, sport, médecine, etc.). Dans le domaine de l’assurance et de l’actuariat, ces différentes notions ont fait leur apparition plus récemment, au début des années 2010. Bien qu’étant encore en phase de développement, leurs possibilités d’utilisation sont déjà nombreuses : tarification, suivi des risques, détection de la fraude, étude des comportements (résiliations, versements, arbitrages notamment), marketing prédictif, etc. Les modèles dits « Data Science » possèdent quelques particularités qui peuvent légitimer leur utilisation dans le monde des assurances en lieu et place des modèles « traditionnels ». Ces modèles traditionnels, le plus souvent des modèles linéaires généralisés (ou GLM), disposent d’avantages certains, le premier d’entre eux étant le fait qu’ils sont connus et maîtrisés par le plus grand nombre. Cependant, certaines étapes de leur implémentation peuvent s’avérer chronophages. Le traitement des données qui implique l’étude précise de la typologie des variables ou encore leurs regroupements en classes dans le cadre de GLM, sont grandement facilités avec les techniques de data science. Les modèles basés sur la théorie des arbres de décisions, par exemple, très populaires grâce à leur côté « graphique », acceptent aussi bien des valeurs quantitatives que qualitatives et les classes de variables sont créées par le modèle lui-même. Néanmoins, certains modèles issus des Data Science, du fait d’une théorie initiale parfois complexe, peuvent être qualifiés de « boîte noire ». De fait, sans supprimer l’ensemble des modèles et outils mis en place aujourd’hui, les modèles Data Science peuvent être un moyen efficace de challenger l’existant ou d’apporter quelques améliorations. De plus, l’environnement des Data Sciences peut offrir de nouvelles opportunités aux assureurs. En effet, les partenariats entre assureurs et start-up venant de domaines variés se multiplient ces dernières années. Dans le cadre de l’assurance santé, les modèles Data Science, par une étude plus poussée des données à disposition et l’intégration de données externes, permettent d’affiner l’analyse de la consommation médicale et d’identifier de potentielles dérives sur des groupes d’assurés présentant des caractéristiques communes. Selon une statistique communément admise dans le milieu de l’assurance santé, 20 % des assurés représentent environ 80 % des dépenses engagées. Connaître les caractéristiques de ces assurés particuliers est donc nécessaire : non seulement pour anticiper les dérives et piloter la sinistralité mais surtout pour développer des actions de prévention adaptées. Galea peut vous accompagner sur ces différents sujets pour optimiser l’utilisation de vos données, pour auditer vos algorithmes ou encore pour vous aider à mettre en places la structure nécessaire au sein de votre entreprise. CART, Random Forest, Gradient Boosting, … [...] Lire la suite…
22 novembre 2018Le marché de l’assurance fait face non seulement à une inflation réglementaire sans précédent mais aussi à des problématiques opérationnelles qui croient régulièrement. En parallèle, émerge une inflation de solutions « innovantes », un vrai paradoxe ! Reportings constants, de plus en plus précis, nouvelles normes et contraintes réglementaires à absorber, recherche d’optimisation des coûts, nouvelle approche client, big data, nouveaux risques comme par exemple la tarification du risque cyber… Autant de challenges qui mettent les compagnies d’assurance face à des problématiques complexes. Or à écouter le marché, les solutions ne manquent pas : automatiser les tâches répétitives, faire appel au « big data », brancher des « RPA » (i.e. robotiser), on saupoudre le tout d’intelligence artificielle, et c’est réglé ! Les problèmes sont résolus. Qu’en est-il vraiment ? Tout cela existe, est vrai. Encore faut-il savoir comment s’y prendre  ? quelles technologies ? pour qui ? quels outils ? quels moyens ? quels processus ? quels accompagnements des ressources humaines ? et enfin, pour quels résultats ? Bill Gates dit : « Je crois en l’innovation et, la manière dont on obtient l’innovation est en subventionnant la recherche et en apprenant les fondamentaux ». Que faut-il comprendre ? Il faut commencer par les bases, les fondements. Et cela s’applique à tous les acteurs et à toutes les innovations. L’objectif est bien de disposer d’innovations efficaces avec des processus parfaitement robotisés, fiabilisés et sécurisés. Il est parfois plus pertinent de rester sur des outils historiques (Excel par exemple) pour gagner des jours de production, sur des calendriers, ô combien chargés. Cela résume la démarche de Galea : Notre objectif est d’accélérer concrètement les projets d’optimisation opérationnelle et de proposer ou appliquer la solution technique la plus adéquates : automatisation ou robotisation. Apporter à la fois notre expertise métier et notre vision d’ensemble sur les problématiques concrètes auxquelles un assureur fait face. [...] Lire la suite…
18 juin 2018Utilisée pour la première fois en 2008 pour la création de la monnaie virtuelle Bitcoin, la Blockchain peut être définie simplement comme une technologie permettant le stockage et l’échange d’informations. C’est une base de données (ou registre) décentralisée dont les informations cryptées sont enregistrées dans des blocs stockés dans une chaine linéaire. Chaque bloc est basé sur les données cryptographiques du bloc précédent permettant ainsi à la chaine de rester intacte et sécurisée. Cette capacité à sécuriser les transactions pourrait faire de la Blockchain un « tiers de confiance » et faire de cette technologie un concurrent direct des banques, des assureurs, des caisses de retraite, des courtiers ou des sociétés de gestion. La Blockchain est constituée d’une partie publique et d’une partie privée : Dans la Blockchain publique, le réseau est ouvert à tout nouveau participant qui peut lire les données au sein des blocs. Dans la Blockchain privée, les droits d’accès peuvent être limités par une « autorité centrale ». L’échange d’informations entre les utilisateurs est basé sur la cryptographie asymétrique. Celle-ci repose sur le concept de clefs qui permettent à des utilisateurs ne se connaissant pas nécessairement d’échanger des informations de manière cryptée. Une clef publique connue de tous permet d’envoyer à un tiers des données cryptées et celui-ci accède à l’information via sa clef privée. La clef publique est assimilable à une adresse email communiquée à tous et dont chacun peut faire usage pour envoyer des données/emails et la clef privée au mot de passe du compte associé à l’adresse e-mail en question. Le Smart Contract et ses applications Une application majeure de la Blockchain est le Smart Contract/Blockchain Contract. C’est un programme informatique permettant la mise en place des termes d’un contrat en répertoriant un certain nombre de conditions ainsi que d’instructions à exécuter en cas de vérifications des conditions. En ce sens, le Smart Contract permet à deux parties anonymes de mener des transactions de manière sécurisée sans aucune intervention humaine rendant les « processus assuranciels plus simples et moins couteux ». Les applications du Smart Contract sont nombreuses dans le domaine de l’assurance. Des solutions concrètes sont proposées pour assurer le risque de retard des avions, les conditions d’indemnisation dans ce cas étant simple à définir et donc à exécuter par une blockchain. Des solutions devraient bientôt voir le jour sur le risque décès et un ensemble d’autres risques. Un processus simplifié d’indemnisation de sinistres Le processus d’indemnisation des sinistres est une étape usuellement fastidieuse tant pour l’assuré que pour l’assureur. L’assuré doit réaliser un certain nombre de démarches avant de se faire indemniser et l’assureur doit vérifier si toutes les conditions sont réunies afin de valider et éventuellement déclencher l’indemnisation du sinistre déclaré. Pour les contrats couvrant des risques dit « paramétriques » c’est-à-dire lié à des indices tels que la pluie, la température, l’humidité ou le rendement des cultures, le Smart Contract permet d’accélérer le processus d’indemnisation. Ainsi, en cas de sinistres naturels, une indemnisation est déclenchée quasi-automatiquement via le Smart Contract. Le système d’indemnisation requiert simplement deux informations qui sont indiquées au programme : l’état de catastrophe naturelle qui doit avoir été déclaré par l’assuré, et la localisation du sinistre. Si un assuré déclare un sinistre et que la zone géographique indiquée correspond à une zone sinistrée vérifiée comme telle par les informations contenues dans la Blockchain, une indemnisation est versée de manière quasi instantanée. La réduction des coûts dans le processus de souscription Les assureurs se doivent de vérifier l’identité, la probité et l’intégrité des clients. Ce processus d’identification s’effectue habituellement par collecte et analyse de données, un processus couteux en temps pour les assureurs. Différents dossiers sont constitués pour un même client dans différentes entités (banque, assurance etc…). Avec l’utilisation d’une plateforme Blockchain, celle-ci peut communiquer avec d’autres plateformes Blockchain (alimentées par d’autres entités) afin de vérifier l’identité d’un utilisateur. Cette mutualisation des processus à travers une base de données « globale » partagée et cryptée permet donc un gain de temps non négligeable pour les assureurs. Dans un même registre, une simplification des collectes de données via la technologie Blockchain se matérialise lors de la phase de souscription et notamment pour la mise en place de contrats dits « complexes ». Par exemple, les contrats pour l’assurance des locaux d’entreprises requièrent de nombreuses informations (présence d’alarme, matériaux de constructions etc. …) dont la collecte peut rapidement être coûteuse en temps. Les sociétés de construction en utilisant des plateformes Blockchain, peuvent stocker les informations relatives aux données de construction ou aux références utilisées pour la sécurité, permettant ainsi une souscription beaucoup plus simple auprès des assureurs. Lors de la souscription d’un contrat couvrant les risques liés aux locaux des entreprises, il suffit de consulter les données stockées dans la Blockchain, ce qui permet de se substituer à la méthode classique de la venue d’un expert pour évaluer les caractéristiques des locaux. De manière générale la technologie Blockchain aura une contribution significative dans l’automatisation des processus assurantiels. Galea suit pour vous les évolutions en la matière. [...] Lire la suite…
1 juin 20181/ Les enjeux du numérique pour le monde de l’Assurance ne sont plus à démontrer, la transformation digitale est bien en marche : quelle est votre place dans cette évolution ? Nathalie Ramos :  A titre personnel, cette transformation m’intéresse tout particulièrement puisqu’elle réunit mes deux passions : l’actuariat et l’informatique ! Les banquiers et les financiers ont rapidement identifié les opportunités. Le monde de l’assurance s’y est intéressé plus tardivement. Cependant, l’Institut des Actuaires a mis en place un groupe de travail « Big Data » dès 2013. Ce groupe de travail s’est donné pour missions de suivre les évolutions du Big Data. Engagée depuis cinq ans dans ce groupe, je travaille sur des cas concrets liés à l’assurance, que ce soit dans le cadre de missions ou au sein du Club Algo de l’Institut des Actuaires dont j’ai la responsabilité depuis deux ans. Florence Chiu : Je préciserais que seuls les grands organismes d’assurance ou certaines start-up se sont positionnés sur le numérique et la transformation digitale. De la même façon, ils sont plutôt en avance en termes de data science. Les petites structures, quant à elles, ne sont pas encore prêtes à tous ces changements. Cependant, je suis convaincue que la data science pourrait leur apporter un vrai plus, nous devons en tant qu’actuaire data-scientist les accompagner. Cela permettrait notamment de revenir aux travaux traditionnels de l’actuaire. Léonard Fontaine : Je compléterais ces points en soulignant que la transformation digitale est en route dans la plupart des compagnies d’assurance avec un volume de données disponibles, que ce soit en interne ou externe, de plus en plus conséquent. La concurrence et les exigences clients étant de plus en plus importantes, les compagnies se doivent de réagir au plus vite afin de pouvoir répondre et refléter au mieux la situation au jour d’aujourd’hui, que ce soit au niveau de la souscription, avec un ciblage plus précis des potentiels clients, ou sur le pilotage technique, avec une tarification en continuelle évolution ou sur des sujets annexes comme la fraude par exemple, ou plus généralement le parcours client.   2/ La data science au service de l’Assurance est-elle plus efficace que l’automatisation ? la robotisation ? et qu’en est-il de l’IA ? Nathalie Ramos : Tout un chacun a pu remarquer le nouveau vocabulaire qui a vu le jour ces dernières années : datascience, intelligence artificielle, robotisation, etc. Tous ont pour fondement le développement des algorithmes. La datascience est très liée au machine learning par exemple. Or, le machine learning est une branche de l’intelligence artificielle. Les robots sont en évolution croissante et leurs fonctions sont déjà très variées : cela va du robot qui manipule des colis dans les entrepôts d’Amazon au « chatbot » qui répond à vos questions sur un site d’achat en passant par l’automatisation de certaines tâches fastidieuses pour les salariés dont la mise en place permet de se focaliser sur des tâches à plus forte valeur ajoutée. Vous aurez compris mon propos : ces notions ne s’opposent pas mais sont bien complémentaires. Florence Chiu : J’ajoute que du fait de la réglementation qui fixe des délais de plus en plus courts en termes de reportings, il est nécessaire pour les assureurs d’automatiser la production notamment sur des sujets qu’ils maitrisent bien, comme les évaluations du Pilier 1 de la Directive Solvabilité 2. Ainsi, ils pourront se concentrer sur de nouveaux sujets, comme IFRS 17 ou sur des études pour lesquels la data science pourrait avoir une réelle valeur ajoutée (souscription, tarification, etc.). Léonard Fontaine : J’observe que l’ensemble de ce vocabulaire a des points communs. En effet, l’automatisation peut être apparentée à des projets ayant pour objectifs de faire gagner du temps aux compagnies d’assurances alors que la Data Science serait utilisée sur des sujets pouvant améliorer la connaissance du risque, la connaissance client pour les organismes d’assurance avec une réelle valeur ajoutée en termes notamment de connaissance (risques, clients…) et de pilotage.   3/ En tant qu’Actuaire Data-scientist, que pensez-vous pouvoir apporter ? Nathalie Ramos : Mon objectif est de mettre à profit le meilleur de ma « double casquette » d’actuaire datascientist au service des organismes d’assurance. Il s’agit, d’une part, de la culture du risque, de la réglementation et de l’engagement à protéger les données personnelles : trois éléments inhérents au métier d’actuaire. Pensons notamment au code déontologique auquel est soumis tout actuaire ainsi qu’à la norme « NPA5 ». D’autre part, je souhaite mettre en œuvre les compétences que j’ai acquises dans des outils de développement (R et Python), la connaissance et la maîtrise des packages indispensables. C’est là, la datascientist qui parle et qui peut déployer des compétences numériques au service de l’assurance. Florence Chiu : Je pense que du fait d’une ouverture constante des données et des moyens de communication de plus en plus rapides, le métier d’actuaire, comme beaucoup d’autres métiers, va évoluer. La data science apporte alors une meilleure compréhension des comportements des assurés et des risques qu’ils portent. N’est-ce finalement pas ce qu’on demande aux actuaires ? Léonard Fontaine : Je partage les propos de Nathalie et Florence, le métier d’actuaire est à la croisée des chemins. Maîtriser ces techniques, avec une vision concrète du métier de l’assurance nous permet de cibler et comprendre plus facilement les besoins des compagnies d’assurance et de les aider tant dans le pilotage que dans la création de nouveaux produits ou encore dans la gestion du risque. [...] Lire la suite…
29 mai 2018Les nouvelles technologies ouvrent la voie à l’utilisation de nouvelles techniques de modélisation et de calcul, ces dernières s’accompagnent également d’une ouverture de la concurrence plus accrue et de la création de nouveaux risques. Parmi les nouvelles innovations, il est possible d’en distinguer plusieurs types : L’utilisation à grande échelle des données liées aux objets connectés est en cours de réflexion. Ces objets permettront d’obtenir des informations pouvant être pertinentes pour mieux modéliser les hypothèses et les tarifs. Cependant, ces derniers présentent des désavantages et des difficultés éthiques et juridiques. L’utilisation de l’intelligence artificielle apparaît progressivement. Cette nouvelle technologie pourra être utilisée à la fois pour la relation client en utilisant des robots conversationnels disponibles 24 heures sur 24, à la fois pour l’aide à l’étude de la conformité et de la sécurité grâce à des outils d’analyse de la réglementation, et également pour la gestion des sinistres avec une optimisation de la détection de la fraude. L’utilisation des blockchains devrait également voir le jour. L’utilisation de ces dernières présentent certains inconvénients dans la mesure où il s’agit d’une technologie pas complètement mature et qu’il y a une absence aujourd’hui quasi-totale de réglementation sur ce sujet. Néanmoins des premières solutions apparaissent, qui apporteront de riches enseignements, et cette technologie devrait permettre d’améliorer l’efficacité opérationnelle des flux de données notamment entre les assureurs et les réassureurs. L’utilisation des blockchains devraient se développer en premier dans des activités B to B (Business to Business) avant de se développer dans des activités B to C (Business to Consumers). La commercialisation des voitures autonomes devrait bouleverser l’activité de certains assureurs. Ces nouvelles technologies vont créer une nouvelle forme de concurrence. En effet, parmi les concurrents potentiels, il est possible de distinguer plusieurs entreprises telles que : Les GAFAM ou BATX pourront potentiellement venir bouleverser le marché actuel avec leur expertise avancée sur les nouveaux technologiques et sur le traitement de bases de données volumineuses. Cependant, l’entrée en matière dans le marché de l’assurance nécessite un très lourd investissement pour ce type d’entreprise ; d’autant plus que la réglementation est relativement stricte en France. Ainsi, ces entreprises pourraient être utilisées à des fins de partenariat ou d’apporteurs d’affaires par les assureurs. Les consultants et les courtiers pourront également gagner des parts de marché. Ces derniers, ayant un savoir-faire commercial et marketing, pourraient proposer des modèles de distributions innovants répondant aux nouvelles attentes des consommateurs. Les producteurs des produits technologiques pourront également venir s’intégrer dans le marché de l’assurance. En effet, les fabricants de voitures autonomes pourraient être plus au fait du suivi des risques associés à leur nouvelle technologie, comparé celui des assureurs actuels. Enfin, l’innovation s’accompagne automatiquement d’une émergence de nouveaux risques. Parmi ceux-ci, il est possible de distinguer : Les risques de cyber-attaque : cette menace concerne aussi bien la sécurité des données, que celle des futurs produits commercialisés tel que les voitures autonomes ; Les risques liés à la lutte contre le blanchiment des capitaux et le financement du terrorisme : l’augmentation des actions réalisés au travers des canaux de distribution multi-canaux pourrait augmenter ces risques. Les risques liés à la non mise à jour des systèmes informatiques et au manque de formation du personnel : comme l’a dit Rabelais « Science sans conscience n’est que ruine de l’âme ». En effet, les nouvelles technologies permettent de nouvelles prouesses cependant, si les utilisateurs de ces technologies ne sont pas formés, ces dernières deviennent inutiles. Ainsi, les évolutions technologiques, auront plusieurs impacts à la fois en termes de nouvelle concurrence et de nouveaux risques. Un challenge important pour les responsables de la gestion des risques dans les entreprises. Ces nouveaux risques offrent aussi l’opportunité aux assureurs de créer de nouveaux produits pour couvrir ces derniers. Les consultants de GALEA sont à votre disposition pour accompagner les assureurs dans la création de ces nouveaux produits, en mettant à disposition l’expérience de ses consultants et data scientists.     Google, Amazon, Facebook, Apple et Microsoft ou BATX pour Baidu, Alibaba, Tencent et Xiaomi (version chinoise des GAFAM) [...] Lire la suite…
23 mai 2018Intelligence artificielle, machine learning, deep learning, big data, data science, automatisation, robotisation, blockchain et beaucoup d’autres termes sont associés à la révolution numérique en cours. La fonction actuarielle devra pouvoir tirer rapidement parti de cette révolution pour devenir « plus sophistiquée » ou « augmentée ». C’est un des enseignements tirés par l’Autorité de contrôle prudentiel et de résolution (ACPR) dans sa récente « Etude sur la révolution numérique dans le secteur français de l’assurance » (Analyses et Synthèses, n°87, mars 2018).   La sophistication de la fonction actuarielle passe par l’appropriation de nouvelles méthodes pour : moderniser le recueil et le traitement des données, qui deviendront de plus en plus nombreuses, d’origine interne ou externe, et devront demeurer de qualité et respecter les nouvelles dispositions du Règlement Général Européen sur la Protection des Données (RGPD). La piste d’audit des données devient de plus en plus surveillée ces dernières années. Comme l’a relevé l’ACPR lors de l’analyse de la collecte des rapports publics SFCR sur les comptes arrêtés à fin 2016, une des missions de la fonction actuarielle est d’ « apprécier la suffisance et la qualité des données utilisées dans le calcul des provisions techniques » (Art. 48 – Directive Solvabilité 2). faire évoluer les modèles actuariels, en prenant en compte les nouvelles possibilités offertes par la Data Science (arbres de régression, forêts aléatoires, gradient boosting, réseaux de neurones, etc.). Il est demandé à la fonction actuarielle d’émettre un avis sur la politique globale de souscription (Art. 48 – Directive Solvabilité 2) : des études plus fines combinant données internes, externes, structurées comme non structurées peuvent être menées à bien avec l’essor de la data science et l’ouverture des données permettant une compréhension fine des risques des assurés. adapter la modélisation des comportements, l’accès à de nouvelles données permettant d’ores et déjà d’améliorer de manière significative l’analyse des consommations en santé, de la mortalité des assurés, du comportement notamment via les objets connectés, de l’efficacité des campagnes de marketing, des fraudes des assurés ou des partenaires, etc. apporter des réponses techniques sur de nouveaux aspects : demande de plus en plus marque d’élaboration de contrats « sur mesure », reposant dans certains cas sur de nouvelles technologies comme la blockchain, réponse à des besoins de nouvelles couvertures sur des risques émergents (cyber risques par exemple). faire évoluer les pratiques, en intégrant, chaque fois que cela est utile des solutions plus automatiques sur les tâches à « plus faible valeur ajoutée ». La mise en œuvre de telles solutions doit faire l’objet d’études préalables, avec les parties concernées, pour prouver leur intérêt. et au final produire des études plus pointues et opérationnelles, sur les travaux classiques de tarification, de provisionnement et d’études de rentabilité, mais également pour les services commerciaux et plus généralement de gestion des risques.   Face à ces évolutions, les entreprises d’assurances et leurs services techniques font face à de multiples enjeux en matière : stratégiques : les nouvelles méthodes et les nouveaux outils vont permettre d’affiner les études sur la sinistralité, à un niveau jamais atteint à ce jour. Les entreprises d’assurances devront rapidement définir le « juste » niveau de la mutualisation qu’elles souhaitent mettre en œuvre, en phase avec leurs valeurs et les principes de base de l’assurance en matière de solidarité et de mutualisation. de ressources humaines et organisationnels : de nouvelles compétences sont nécessaires pour développer ou adapter les modèles existant, mais également pour définir les études à mener ou interpréter les résultats, sans utiliser de manière abusive les nouvelles technologies. De nouveaux recrutements sont à prévoir, ainsi que l’évolution des compétences internes. Des plans de formation sont mis en place dans la plupart des entreprises. Ces besoins interviennent à un moment où la demande est également forte sur les études financières et techniques plus « classiques » : réformes réglementaires successives de l’assurance-vie, de la retraite, de la santé, nouveaux produits en assurance non vie et sur les contrats Emprunteurs, poursuite de l’appropriation de la réforme prudentielle Solvabilité 2, entrée en vigueur des normes comptables IFRS 9 et IFRS 17, rapprochements entre structures d’assurances, etc. de méthodes de travail: de grands espoirs sont fondés sur les nouvelles méthodes et technologies et des premières réalisations sont disponibles, tant en matière de data science que d’automatisation ou de robotisation. Pour accélérer les développements et la réalisation d’application pratiques, les méthodes de travail des équipes d’actuariat devront évoluer et être basées sur des « POC » (proofs of concept ou démonstrations de faisabilité courtes), avec l’aide de data lab internes ou externes. Les actuaires doivent être les principaux acteurs de ces évolutions. informatiques : le besoin de traitement de nouvelles données, dans certains cas en temps réel, demande une évolution des systèmes informatiques avec des serveurs ayant des capacités de stockage de plus en plus conséquentes et des logiciels de traitements adéquats ainsi que l’imbrication de solutions existantes dans le système d’information. Le choix de solutions externes pour mener les nouvelles études devra être réfléchi, non seulement pour des raisons financières mais également pour garantir la compréhension des outils utilisés, qui reposent souvent sur des algorithmes devant être compris et challengés. Au-delà de ces besoins, le monde de l’assurance devra également faire évoluer ses systèmes informatiques de manière à pouvoir proposer aux clients des interfaces multi-canaux. Ces évolutions devront également être pensées en anticipant les innovations technologiques potentielles futures. Ces changements, nécessitant un lourd investissement à la fois en termes de formation des équipes et de refonte des systèmes, présentent néanmoins un retour sur investissement compliqué à mesurer à ce jour. Les consultants de GALEA sont à votre disposition pour développer ces points et réaliser des premiers travaux pratiques, en mettant à votre disposition l’expérience de ses consultants et data scientists. [...] Lire la suite…
16 mai 2018Le 23 janvier dernier, Agnès Buzyn, ministre des Solidarités et de la Santé, lançait les premières concertations dans le cadre du projet « Reste à charge zéro ». L’objectif est de parvenir, d’ici 2022, à un reste à charge nul pour l’optique, les prothèses dentaires et les audioprothèses. Or, ces postes sont parmi ceux les moins bien remboursés par l’assurance maladie obligatoire. Selon une étude de la DREES, le taux de reste à charge des ménages est compris entre 25 et 35% pour l’optique et les prothèses dentaires et peut dépasser les 50% pour les audioprothèses alors que le taux moyen de reste à charge pour l’ensemble des dépenses de santé est inférieur à 10%. La mise en place d’un tel projet aura donc nécessairement des impacts conséquents auprès d es différents acteurs/intervenants du système de soins français, et notamment pour les entreprises qui pourront être amenées à revoir leur politique en matière de santé. Celles-ci devront être capables de quantifier et d’appréhender rapidement les enjeux de ces mesures sur leurs contrats collectifs alors que les premières annonces concernant le projet sont attendues fin mai / début juin 2018. Pour répondre à ces problématiques, une analyse des comportements de consommation des salariés semble donc indispensable. L’utilisation de modèles Data Science peut s’avérer pertinente dans ce cadre. En effet, ces modèles, par leurs capacités à traiter des bases de données de tailles importantes, permettent l’intégration de nombreuses variables. En plus des données internes à l’entreprise (salaire, ancienneté dans l’entreprise, …), des données économiques et sociales (nombre d’équipements de santé dans la commune, revenu médian de la commune, …) ou encore des données propres au salarié (situation familiale, …) pourront être ajoutées à ces modèles et apporteront de nouvelles informations dans l’analyse des comportements. L’analyse des variables explicatives obtenues par les différents algorithmes de Data Science pourront servir à la mise en place d’une politique de prévention ou de plans d’action. De plus, des indicateurs pourront être créés afin d’assurer un suivi dans le temps des actions mises en place. L’ajout de ces nouvelles variables doit néanmoins être conditionné non seulement par le nouveau Règlement Général sur la Protection des Données (RGPD), dont la mise en application sera effective le 25 mai 2018 mais également par la Norme de Pratique relative à l’utilisation et la protection des données massives, des données personnelles et des données de santé à caractère personnel – dite norme « NPA 5 » de l’Institut des Actuaires. L’éthique de l’utilisation des données et l’application des algorithmes sur les données est un axe essentiel pour les actuaires du Cabinet GALEA & Associés soumis à l’appartenance à cette norme et garantie une utilisation de toutes données dans la stricte règle définie par cette norme. Les utilisations potentielles des modèles Data Science en santé ne se limitent pas à l’analyse de la consommation des salariés. L’implémentation de tels modèles peut également faciliter l’identification de potentielles dérives au sein de certains groupes de salariés en mettant en exergue de nouvelles variables explicatives. Le cabinet GALEA & associés propose de vous accompagner dans l’analyse des comportements de vos salariés et la recherche de données pertinentes dans le domaine de la santé. http://drees.solidarites-sante.gouv.fr/IMG/pdf/cns_2017.pdf https://www.institutdesactuaires.com/global/gene/link.php?doc_id=11625&fg=1  [...] Lire la suite…
9 mai 2018L’absentéisme est de nos jours une problématique cruciale pour les entreprises. Le taux d’arrêt de travail et leur durée augmentent depuis quelques années. Ce risque est communément appelé « risque lourd » puisqu’il coûte chaque année des sommes non négligeables aux chefs d’entreprises, ainsi qu’au système assurantiel. Comprendre les causes de l’absentéisme peut permettre ainsi de mettre en place des actes de prévention afin de réduire son impact et d’augmenter la productivité et la performance de l’entreprise. De plus, une meilleure connaissance des causes de l’absentéisme permettrait aussi à l’entreprise de piloter et d’améliorer son régime de prévoyance. L’essor de la Data Science et les études qui en découlent autorisent l’intégration d’une multitude de variables externes afin d’affiner les travaux déjà mis en place en interne. Ainsi l’ensemble des variables géographiques ou météorologiques par exemple peuvent venir enrichir les données déjà à disposition en interne et permettre d’avoir des centaines de variables à étudier. L’application de modèles Data Science peut repérer les corrélations de ces nouvelles variables avec le taux d’entrée en arrêt de travail ou sa durée et ainsi identifier les causes de l’absentéisme. L’entreprise pourra donc mettre en place des actes de prévention. La récupération de cette source d’informations est un réel outil pour lutter contre l’absentéisme et permettre aux ressources humaines d’améliorer la qualité de vie au sein de l’entreprise par l’identification des causes des arrêts de travail.   Le cabinet GALEA & Associés propose de vous accompagner dans la mise en place des travaux, par la création de l’entrepôt de données par des techniques de text mining et de web scraping afin de récupérer les données externes, à la mise en place des modèles de Data Science / Machine Learning les plus adaptés. Des échanges avec les ressources humaines sont organisés régulièrement tout au long de l’étude afin d’intégrer au mieux leur connaissance de l’entreprise et des salariés. Des tableaux de bords et indicateurs permettront aux directions concernées d’identifier des types de profils susceptibles d’avoir un fort taux d’absentéisme et de mesurer l’impact des actions de préventions prises sur ces profils. [...] Lire la suite…
7 mai 2018Le 23 janvier dernier, Agnès Buzyn, ministre des Solidarités et de la Santé, lançait les premières concertations dans le cadre du projet « Reste à charge zéro ». L’objectif est de parvenir, d’ici 2022, à un reste à charge nul pour l’optique, les prothèses dentaires et les audioprothèses. Or, ces postes sont parmi ceux les moins bien remboursés par l’assurance maladie obligatoire. Selon une étude de la DREES, le taux de reste à charge des ménages est compris entre 25 et 35% pour l’optique et les prothèses dentaires et peut dépasser les 50% pour les audioprothèses alors que le taux moyen de reste à charge pour l’ensemble des dépenses de santé est inférieur à 10%. La mise en place d’un tel projet aura donc nécessairement des impacts conséquents sur tous les acteurs du système de soins français, et notamment les organismes assureurs. Ceux-ci devront être capables de quantifier et d’appréhender rapidement les enjeux de ces mesures alors que les premières annonces concernant le projet sont attendues fin mai / début juin 2018. Pour répondre à ces problématiques, une analyse des comportements de consommation des assurés semble donc indispensable. L’utilisation de modèles Data Science peut s’avérer pertinente dans ce cadre. En effet, ces modèles, par leurs capacités à traiter des bases de données de tailles importantes, permettent l’intégration de nombreuses variables. En plus des données internes à l’entreprise (salaire, ancienneté dans l’entreprise, …), des données économiques et sociales (nombre d’équipements de santé dans la commune, revenu médian de la commune, …) ou encore des données propres au salarié (situation familiale, …) pourront être ajoutées à ces modèles et apporteront de nouvelles informations dans l’analyse des comportements des assurés. L’analyse des variables explicatives obtenues par les différents algorithmes de Data Science pourront servir à la mise en place d’une politique de prévention ou de plans d’action. De plus, des indicateurs pourront être créés afin d’assurer un suivi dans le temps des actions mises en place. L’ajout de ces nouvelles variables doit néanmoins être conditionné non seulement par le nouveau Règlement Général sur la Protection des Données (RGPD), dont la mise en application sera effective le 25 mai 2018 mais également par la Norme de Pratique relative à l’utilisation et la protection des données massives, des données personnelles et des données de santé à caractère personnel – dite norme « NPA 5 » de l’Institut des Actuaires. L’éthique de l’utilisation des données et l’application des algorithmes sur les données est un axe essentiel pour les actuaires du Cabinet GALEA & Associés soumis à l’appartenance à cette norme et garantie une utilisation de toutes données dans la stricte règle définie par cette norme. Les utilisations potentielles des modèles Data Science en santé ne se limitent pas à l’analyse de la consommation des assurés. L’implémentation de tels modèles peut également faciliter l’identification de potentielles dérives au sein de certains groupes d’assurés en mettant en exergue de nouvelles variables explicatives. L’étude des comportements d’adhésion et de résiliation des assurés peut aussi être améliorée via la mise en place de modèles Data Science. Le cabinet GALEA & associés propose de vous accompagner dans l’analyse des comportements de vos assurés et la recherche de données pertinentes dans le domaine de la santé. http://drees.solidarites-sante.gouv.fr/IMG/pdf/cns_2017.pdf https://www.institutdesactuaires.com/global/gene/link.php?doc_id=11625&fg=1  [...] Lire la suite…
3 mai 2018Sinistres fictifs, fausses déclarations, arrangements avec un professionnel… La fraude à l’assurance n’a rien d’anodin : elle représentait, en 2014, 2,5 milliards d’euros en assurance dommages soit 5 % des primes de ce secteur en France. Une sensibilisation au sein des organismes assureurs de plus en plus accrue se fait sentir notamment par le développement d’une culture éthique et de dispositifs de contrôles internes. Même si l’expertise humaine des gestionnaires de sinistres est privilégiée dans le cas de détection de la fraude, les outils d’analyse de données se développent de plus en plus et ont pour ambition de compléter les procédures classiques. Depuis 2014, la Commission Nationale de l’Information et des Libertés (CNIL) propose une autorisation unique (n°AU 039) permettant aux assureurs de croiser leurs bases de données dans le but notamment de gérer « les alertes en cas d’anomalies, d’incohérences ou de signalements » et de constituer « des listes de personnes dûment identifiées comme auteurs d’actes pouvant être constitutifs d’une fraude ». L’essor de la data science pourrait ainsi inverser le rapport de force entre fraudeurs et assureurs. Alors que les modèles statistiques classiques ont un faible pouvoir de détection d’anomalies, les méthodes de machine learning, quant à elles, qu’elles soient supervisées ou non supervisées, sont plus adaptées dans la recherche de signaux faibles comme la fraude. Ainsi, une méthode supervisée peut repérer une typologie de fraudeurs à partir d’une base de données dans laquelle les cas avérés ont déjà été identifiés : celle-ci détecte les fraudeurs potentiels comme étant proches de la typologie obtenue lors de la phase d’apprentissage du modèle. Aujourd’hui, les fraudes avérées sont généralement issues des intuitions des gestionnaires de sinistres, reposant déjà sur des caractéristiques a priori des fraudeurs. Aussi, une méthode supervisée peut permettre de confirmer les assertions des gestionnaires et d’améliorer les processus de gestion des sinistres. Le danger cependant ici serait de cibler uniquement une catégorie d’individus et de passer à côté de fraudeurs ayant une typologie toute autre. Les méthodes non supervisées, appropriées lorsque le nombre de cas de fraudes avérées est faible voire nul, permettent d’attribuer un score de suspicion de fraude pour chaque individu. Plus une observation diverge d’une certaine « normalité » définie par les méthodes, plus sa probabilité de frauder est élevée. Ces modèles sont particulièrement intéressants dans le cas de la détection de la fraude sans a priori sur les fraudeurs potentiels. A mi-chemin entre les deux types de méthodes présentées précédemment, les modèles semi supervisés sont également utilisés avec succès. Le système de détection de la fraude mis en place doit être en constante évolution et doit être enrichi par l’expérience acquise au fur et à mesure. L’implication permanente des gestionnaires aux côtés des data scientists dans l’amélioration continue des outils est primordiale dans la réussite de ces dispositifs permettant d’allier leurs expertises métiers respectives. Nous préconisons aux Directions générales de rapidement tester leurs données afin de mesurer l’efficacité des nouvelles méthodes d’analyse de la fraude, en partant de modèles simples et pédagogiques (de type CART ou k plus proches voisins) et en associant les gestionnaires, les data scientists, les actuaires et les commerciaux.   Le cabinet GALEA & Associés intervient sur l’ensemble de ces sujets afin d’accompagner au mieux le monde de l’assurance et de permettre aux acteurs de se positionner et d’utiliser des techniques innovantes que sont la data science, l’automatisation, et la robotisation. [...] Lire la suite…
27 avril 2018Au lendemain de la journée de la femme, nous avons pu entendre « En matière salariale, nous sommes tous d’accord sur le constat : la loi qui fixe le principe à travail égal salaire égal a 45 ans et aujourd’hui encore, elle n’est pas appliquée et les inégalités persistent »,  Muriel Pénicaud souhaite mettre fin à ces écarts, d’ici 2022. Pour ce faire, les sanctions seront alourdies pour les entreprises ne respectant pas cette égalité salariale. Par ailleurs, afin de les aider à se conformer à cette obligation, un logiciel permettant de détecter la présence d’une discrimination salariale suivant le sexe sera mis à disposition dès 2019 pour les entreprises de plus de 250 salariés et dès 2020 pour les autres entreprises. Ce logiciel, comme il en existe en Suisse, permettra de déterminer si l’inégalité salariale suivant le sexe est statistiquement significativement supérieure à un seuil déterminé. Ce critère pourrait être établi à partir de caractéristiques communes prédéfinies en amont (comme l’âge, l’ancienneté, la position professionnelle, …) à l’aide d’une analyse de régression.  Il convient de souligner qu’en raison du seuil de tolérance, le résultat du test ne pourra pas être utilisé comme preuve d’absence de discrimination salariale suivant le sexe. Et ensuite ? En effet, quelle(s) suite(s) donner ? En cas de réponse de présence d’inégalité salariale suivant le sexe, comment identifier les femmes discriminées et allouer le budget relatif à cette problématique afin de l’éliminer ? A contrario, en cas de réponse d’absence d’inégalité salariale suivant le sexe, comment prouver l’absence réelle de discrimination ? Les solutions ne seront pas données par le logiciel qui sera fourni, en revanche, il est tout à fait possible d’y remédier. Le Cabinet GALEA & Associés propose de vous accompagner dans ces travaux afin d’identifier les discriminations. Des modèles de Data Science / Machine Learning seront utilisés afin de mettre en exergue les femmes discriminées, si celles-ci existent, et les évolutions de salaires nécessaires pour gommer ces inégalités. Des échanges réguliers avec les Ressources Humaines permettront d’intégrer leur connaissance de l’entreprise et des salariés afin d’affiner les résultats « techniques » et d’en améliorer leur analyse. Des contrôles seront également mis en place afin de communiquer l’impact réel des actions prises sur l’inégalité salariale suivant le sexe. Ainsi des indicateurs de suivi dans le temps seront mis en place afin de supprimer ces différences dans le respect du budget alloué. Par ailleurs, des travaux sur l’intégration de l’ensemble de vos données internes à disposition permettraient d’affiner les analyses et de « capter » de nouveaux phénomènes d’écarts de rémunération. [...] Lire la suite…
23 avril 2018Le « roulement du personnel » (ou turn over) est un indicateur permettant de décrire le rythme de renouvellement des effectifs. Il est généralement estimé et établi à partir du nombre de salariés partis et du nombre de salariés arrivés dans une entreprise. Cet indicateur est une donnée stratégique dans le pilotage des Ressources Humaines, et ce, quel que soit la taille de l’entreprise. Il convient de souligner que si les arrivées au sein d’une entreprise sont maîtrisées, les départs peuvent être, quant à eux, plus difficiles et complexes à anticiper. En effet, ils peuvent revêtir plusieurs formes : démissions, fins de contrats, ruptures amiables.     Pour appréhender le nombre de départs non souhaités, ie. les démissions, le climat social est souvent l’unique facteur pris en compte. “You take away our top 20 employees and we become a mediocre company.“ (Bill Gates) En plus d’une perte de potentiels talents, les départs non souhaités par l’entreprise peuvent également représenter un coût important. Dans le cas où le départ d’un employé doit être remplacé, un processus de recrutement et de formation, plus ou moins long en fonction du profil recherché, doit être mis en place. La compréhension et l’analyse des démissions dans une entreprise sont donc primordiales pour définir une politique RH efficace et appropriée aux besoins de l’entreprise. Celle-ci peut ensuite mettre en place des actions correctives (mise en place d’un processus de recrutement efficient, amélioration du management, politique de rémunération objective, formation, etc.). Les modèles supervisés de Data Science peuvent être utilisées comme des méthodes de prédiction des départs non souhaités. En complément des éléments endogènes à l’entreprise (l’ancienneté des employés dans l’entreprise, le salaire, etc.) et des données exogènes (contexte économique et social de l’activité), les données propres à chacun des salariés (le temps de trajet, le nombre d’enfants, la situation familiale, etc.) peuvent également être considérées, dans la limite des conditions du nouveau Règlement Général sur la Protection des Données (RGPD). Les modèles et les données doivent, en effet, respecter les règles éthiques et morales. L’analyse des principales variables explicatives obtenues par les algorithmes est essentielle dans la mise en place de plans d’action. Par exemple, si le nombre d’enfants est identifié comme étant une variable expliquant en partie les départs d’une entreprise, il convient que celle-ci mette en place des aménagements favorisant les conditions de travail des mères ou pères de famille (mise en place de télé travail, accès prioritaire à des places en crèche…). Bien que les modèles Data Science captent bien les signaux faibles de manière générale, l’utilisation de ceux-ci nécessite cependant des données importantes pour comprendre les caractéristiques communes des démissionnaires et est donc particulièrement pertinente pour des entreprises de grande taille.   GALEA & Associés accompagne les entreprises dans le pilotage de leur politique sociale et les aides dans la mise en place et suivi des indicateurs nécessaires à leur stratégie RH. [...] Lire la suite…
6 avril 2018Galea & Associés, conseil auprès des entreprises, des organismes d’assurance et des branches professionnelles, forme deux de ses actuaires à la data science. Le cabinet consolide et renforce son expertise en utilisant les méthodes de Machine Learning et d’intelligence artificielle.   Florence Chiu et Léonard Fontaine ont validé un parcours de formation d’un an en « Data Science pour l’Actuariat » à l’Institut des Actuaires, une spécialisation qui permet de répondre aux enjeux économiques actuels liés aux nouveaux usages du digital. Une offre spécifique data science pour les entreprises et les organismes d’assurance GALEA & Associés a identifié pour les entreprises et les organismes d’assurance, les domaines pour lesquels ces techniques et méthodes enrichissent leurs analyses et a ainsi bâti une offre répondant à leurs besoins et leur permettant de satisfaire à leurs obligations. Les entreprises peuvent ainsi piloter leur politique sociale de manière efficace dans les différents domaines que sont l’égalité Femmes/Hommes, l’absentéisme, le turn-over, la Santé… Dans le conseil auprès des organismes d’assurance, le cabinet met la data science au service de la fonction actuarielle, de la gestion des risques du marketing ou de la conformité ; des sujets pour lesquels, elle devient un outil indispensable, comme par exemple la fraude, la connaissance clients…   « GALEA a souhaité compléter son offre globale d’actuariat afin d’être en phase avec les évolutions et les besoins du marché de l’Assurance et du monde de l’entreprise. En s’appuyant sur la data science, nos actuaires permettent à nos clients d’améliorer leur efficacité et leurs process tout en valorisant leurs données. », se félicite Norbert Gautron, Président de GALEA.  Selon Florence Chiu, actuaire data scientist, « la data science est un formidable outil qui permet de travailler des données qui jusqu’à présent étaient peu, ou pas correctement travaillées. Elle permet aux entreprises de remplir leurs obligations règlementaires et de réaliser des gains financiers et de productivité. » « La data science permet de faire « parler » les données, que ce soit par des apprentissages supervisés ou non supervisés, et se révèle particulièrement efficace pour détecter certains comportements comme la fraude. » ajoute Léonard Fontaine, actuaire data scientist.    [...] Lire la suite…