Archives de
Author: Nora JAFJAF

The risks and dangers of biometrics in modern security systems

The risks and dangers of biometrics in modern security systems

In the ever-changing security landscape, authentication plays a central role, and one of the most intriguing developments in recent years is the widespread adoption of biometrics. Initially reserved for federal applications, biometric technology has permeated everyday security systems. This article explores the definition of biometrics, its impacts, dangers and benefits, focusing on its growing importance in the field of cybersecurity.

First, what is biometrics?

Biometrics, in the context of security, refers to personally identifiable information (PII) that can be used to uniquely identify, contact, or locate an individual. Unlike traditional authentication methods such as passwords, biometrics rely on distinctive physical or behavioral characteristics inherent to each person, making it difficult for unauthorized individuals to imitate or duplicate.

Thus, biometric systems can be classified into two types: physical biometrics and behavioral biometrics. Physical biometrics uses characteristics such as facial features, fingerprints, iris patterns, retina scans and voice recognition. On the other hand, behavioral biometrics relies on activity patterns, including keyboarding and voice typing, for example.

The use of biometric authentication has grown considerably in recent years, providing an additional layer of security and ensuring the rigorous identification of individuals. This revolutionary adaptation has become a new standard, with a 90% increase in its use over the last five years.

Biometric data is commonly used to access information on devices such as smartphones, but its applications go beyond simple authentication. Law enforcement uses biometrics in criminal identification systems, while healthcare integrates it into national ID cards and health insurance programs for identification purposes.

The advantages of all this…

Biometrics offer several advantages, including that they are difficult to forge or steal, are easy and convenient to use, and eliminate the need to remember multiple passwords. Additionally, biometric authentication is non-transferable, reducing the risk of proxy use and unauthorized access.

and therefore, the inconveniences…

While biometrics improve security, they have notable drawbacks. Implementing a biometric system can be expensive, and failure to capture all necessary biometric data can result in identification failures. Biometric databases are susceptible to hacking, and errors such as false rejections and acceptances can still occur. User injuries can also render biometric systems ineffective, raising privacy concerns.

As biometrics become an integral part of modern security systems, it is crucial to understand the benefits and risks. Although it improves authentication and provides some convenience, the potential for breaches and privacy issues requires careful consideration during its implementation and continued development. As technology advances, balancing security and user privacy remains a crucial challenge for our society.

Neuralink : le future de l’interface homme-machine ?

Neuralink : le future de l’interface homme-machine ?

Elon Musk est à la fois ingénieur, entrepreneur et fondateur de plusieurs entreprises. Parmi elles, SpaceX, Tesla et Neuralink sont les plus connues. Je vais vous parler ici de Neuralink, start-up lancée en 2016 dont il est le cofondateur. Cette dernière est une entreprise de neuro-technologies basée à San Francisco.

En 2019, Neuralink lance sa première puce N1 encore très prototypée et déclare qu’un singe a déjà été capable de contrôler un ordinateur grâce à un de leurs implants.

En 2020, c’est la puce Link 1 qui est lancée avec une approche plus adéquate.

Enfin, en 2022, l’objectif de la start-up est de pouvoir implanter des puces dans les cerveaux humains. Dans un but médical pour commencer d’après les déclarations d’Elon Musk lui-même.

Mais comment ces puces fonctionnent-elles ?

En premier lieu, les implants seront donc complètement autonomes et intégrés sous la peau avec une sonde directement dans le cerveau. Une fois posés, ils seront complètement invisibles. Par ailleurs, leur recharge se fera sans fil. Ils analyseront alors l’activité neuronale et n’interféreront pas avec, comme le font par exemple, des implants contre les troubles de parkinson[1]https://technologiemedia.net/2020/03/18/un-implant-pour-les-personnes-atteintes-de-parkinson/

L’activité du cerveau est surveillée par l’application Neuralink via l’implant qui est connecté par Bluetooth.Les données sont recueillies, enregistrées puis analysées par un algorithme de décodage. Les résultats obtenus par ce dernier vont permettre de comprendre l’activité neuronale.

Maintenant, que nous avons vu comment ces puces fonctionnaient, on va s’intéresser aux objectifs de celle-ci.

La start-up déclare qu’en premier lieu ces puces seraient implantées dans un but médical. Elles serviraient ainsi à capter l’activité cérébrale en temps réel et de pouvoir anticiper certains dysfonctionnements du cerveau. Le but principal est donc de soigner des maladies neurologiques comme la paraplégie, la perte de la mémoire ou encore la dépression. L’optique étant ainsi, de toucher un grand public. Par ailleurs, Elon Musk parle même de contrôler quelque chose par la pensée. Malgré tout, ce concept divise les internautes et la communauté scientifique : la sécurité et l’intégrité de cette puce sont alors les priorités de la start-up.

Pour conclure , les ambitions de ces implants sont grandes, l’interprétation de l’activité neuronale pouvant permettre de suppléer les connexions abîmées entre cerveau et autres parties du corps. Permettant ainsi de commander par la pensée les membres paralysés d’une personne ou des membres artificiels ou instrumentés. Mais Elon Musk va jusqu’à prédire des possibilités de télépathie. Sans aller jusqu’à cet extrême, on peut imaginer la commande télépathique de machines. Si les aspects techniques semblent en bonne voie pour arriver à ces objectifs, , les questions d’éthique et de sécurité se posent encore et les débats risquent d’être longs entre pro et contre le transhumanisme[2]tps://lejournal.cnrs.fr/billets/transhumanisme-de-lillusion-a-limposture.

Explainable Artificial Intelligence (XAI)

Explainable Artificial Intelligence (XAI)

Au cours de ces dernières années, l’intelligence artificielle a vu son utilisation croître de façon exponentielle. Si celle-ci est présente dans de nombreux domaines,  c’est un aspect particulier de l’Intelligence Artificielle qui va nous intéresser ici : l’ XAI (explainable AI). Ce principe désigne la capacité d’une IA ne pas s’intéresser uniquement à l’acuité des décisions qu’elle propose mais également aux raisons qui ont amené cette décision. Cela dans le but de donner à l’utilisateur les moyens de comprendre et d’analyser les résultats. Ce domaine présente, en majorité, deux grandes dimensions : l’interprétabilité et l’explicabilité.

l’explicabilité donne des informations sur le « raisonnement » de l’algorithme de Machine Learning et sur les données qu’il a utilisées. Ces informations sont destinées prioritairement aux experts de l’IA, car elle nécessitent une compréhension des éléments techniques du modèle et de l’analyse des données.

L’interprétabilité pour sa part a pour rôle de fournir l’informations dans un format compréhensible par tous. Il s’agit souvent de « traduire » les explications en éléments « interprétables » par une personne travaillant dans le domaine considéré mais sans connaissances spécifiques en IA.

Notons que ces deux termes sont souvent associés, mais qu’il est important de bien savoir dissociés les Notons que la frontière entre ces deux catégories n’est pas très précise et leurs dénominations sont même parfois inversées. Il est important cependant de garder à l’esprit les différences en termes de cible visée : expert de l’IA ou non.

Pourquoi avons-nous besoin de l’interprétabilité et de l’explicabilité? Ces éléments permettent en premier de renforcer, ou d’instaurer, la confiance des utilisateurs envers l’IA, en montrant sur quels éléments sont prises les décisions et en démystifiant les erreurs des systèmes. Mais ces éléments permettent aussi de répondre aux questions de conformité réglementaire : différents textes réglementaires sont en effet rentrés en vigueur, en Europe et en France notamment, qui imposent des règles sur le traitement des données, pour des raisons éthiques le plus souvent (respect des informations personnelles, lutte contre les discriminations, etc.). Ceux-ci incluent parfois directement la nécessité de pouvoir expliquer sur quels éléments sont basés les décisions. Dans tous les cas, pour pouvoir démontrer le respect, ou non, de ces textes, une approche de type XAI est indispensable.

On distingue trois étapes dans l’explicabilité de l’IA :

En premier lieu, l’explication de la pré-modélisation. Celle-ci permet de comprendre et de décrire les données utilisées pour développer le modèle.

On a ensuite la modélisation explicable qui permet de développer des modèles dits intrinsèques simples.

Enfin, la post-modélisation permet d’extraire des explications afin de décrire les modèles presque développés.

À titre d’exemple, on peut citer les Local Interpretable Model-Agnostic Explanations, autrement dit les LIME. Ces derniers, expliquent une décision donnée (aspect « local ») en modélisant autour de cette donnée les décisions du système IA étudié par un modèle simple et intrinsèquement interprétable. Cela permet « d’expliquer » le comportement du système autour de l’instance (la donnée) d’intérêt.

Pour finir, il faut évoquer SHAP (shapley additive explanations) qui est une approche issue de la théorie des jeux. Cette approche est également « model agnostic » : elle permet d’expliciter les sorties de n’importe quel modèle d’apprentissage automatique. Cette approche est basée sur les valeurs de Shapley. Pour une instance précise qui a amené une décision donnée, les valeurs de Shappley calculent l’importance de chaque « feature » (les caractéristiques de l’entrée) dans la décision. Précédemment cité, les valeurs de Shapley proviennent donc de la théorie des jeux de coalition. Et cette méthode a pour but d’expliquer certaines prédictions individuelles. Finalement, Shapley présente plusieurs propriétés intéressantes telles que l’efficacité ou la symétrie.

Article rédigé suite à une conférence découverte recherche en L1 au CERI.