Archives de
Tag: CMI 2I2A

Rapport du Projet de Traduction Omnidirectionnelle des Langues des Signes.

Rapport du Projet de Traduction Omnidirectionnelle des Langues des Signes.

Préambule

Afin de comprendre l’utilité d’un outil interagissant avec des langues signées, il faut préciser la nature des langues signées.

Les langues des signes sont des systèmes langagiers propres, c’est-à-dire des systèmes évolutifs de signes linguistiques gestuels permettant la communication entre des individus. 

Dans les faits, cela veut dire qu’il existe une multitude de langues des signes indépendantes, appartenant à plusieurs familles de langues, ayant des syntaxes propres, des  grammaires propres, des typologies différentes, appartenant à des cultures différentes, etc.

Ainsi, les langues des signes ne sont pas une transcription de langues orales; il ne suffit pas de remplacer chaque signe par un mot français pour comprendre ce que dit un locuteur de la Langue des Signes Française (LSF), et vice versa. Les langues des signes sont indépendantes des langues orales, bien que, comme toutes langues, des emprunts et interactions ont lieu. Dans le cas d’une langue orale signée on parlera de français signé, de japonais signé, etc.

Pour conclure, une langue des signes agit en tout point comme une langue orale à la différence près que son mode de communication est majoritairement gestuel et visuel. Une langue des signes demande donc les mêmes efforts qu’une langue orale afin d’être traduite.

Introduction

Contexte

Ce rapport fait suite au projet intégrateur de première année en Cursus Master Ingénierie, Ingénierie Informatique, au Centre d’Enseignement et Recherche en Informatique de l’Université d’Avignon.

L’équipe de ce projet se compose de : Johanny Titouan, Harouda Sara, Dramé Ibraïma, Rochas Sylvain, Sephanh Cédric, Sarrasin Lilien. Ce projet a été supervisé par M. Spriet Thierry.

Nous remercions M. Leith A. Kabouya (Université Paris-Sorbonne Abu Dhabi) pour son aide dans le domaine juridique.

Sujet

Création d’un moteur de traduction omnidirectionnel de langues des signes. C’est-à-dire d’une langue orale vers une langue des signes, d’une langue des signes vers une langue orale et d’une langue des signes vers une langue des signes.

Problématique

Les langues des signes sont utilisées couramment par environ 72 millions de personnes dans le monde comme mode de communication privilégié. Elles sont adaptées aux difficultés que rencontrent les personnes malentendantes qui ne leur permettent pas de manier des langues orales avec aise, même écrites. Il existe 24 langues des signes utilisées par plus de 10 000 locuteurs, et elles agissent comme langues maternelles, véhiculaires et vernaculaires, dans les communautés malentendantes qui les emploient.

Toutefois, les langues des signes ne sont que peu connues, encore moins utilisées et enseignées, par le monde des personnes entendantes. Cette méconnaissance donne lieu à des barrières linguistiques importantes au sein de sociétés où l’information et la communication sont devenues une source de stimulation permanente. Il se trouve alors que des communautés de personnes physiquement désavantagées sont marginalisées par le manque de communication dans les moyens qui leur sont offerts.

De plus, le manque de connaissances, d’informations et de communication vers et depuis les langues des signes limitent leur nombre de locuteurs. Selon l’OMS, au moins 430 millions de personnes souffrent de perte de l’audition importante et incapacitante. Ce qui veut dire que seulement 17% des personnes malentendantes avec handicap fort sont capables de s’exprimer dans une langue des signes. Ainsi, 83% des personnes malentendantes avec handicap fort sont soit obligées d’apprendre ou d’utiliser une langue orale, ce qui est difficile compte tenu du handicap, soit se retrouvent en situation d’isolement et de solitude car incapables de communiquer correctement avec les autres membres de leur société.

A l’heure actuelle, les alternatives sont peu nombreuses et souvent peu pratiques : Communiquer en écrivant est incapacitant dans la vie active, même à l’heure du numérique; les appareils auditifs et implants cochléaires sont peu abordables, ont souvent des procédures compliquées et longues, et requièrent des conditions pour leur fonctionnement optimal comme le calme autour des conversations de leur porteur.

Enfin, nous noterons que les communautés malentendantes et signantes sont souvent réticentes à obtenir des appareils auditifs car craignant de perdre leur culture propre. Les cultures développées dans ces milieux sont distinctes du monde entendant. De plus, sous stimuli et lors de la formation de communautés malentendantes, il est observé une propension naturelle à l’utilisation des langues des signes, que ce soit en apprenant ou en créant.

C’est pourquoi, et ce afin de promouvoir l’intégration des personnes malentendantes et faciliter l’accès à l’information, il est important selon nous de développer des outils permettant la traduction omnidirectionnelle des langues des signes; outils qui à leur tour vont promouvoir l’usage des langues des signes, le besoin et la facilité future de communication avec personnes malentendantes.

Nous répondrons alors dans ce rapport à la question suivante : 

Comment et pourquoi créer un moteur de traduction omnidirectionnel de langues des signes de manière innovante, humaniste et entrepreneuriale ?

Pourquoi ?

Un traducteur de langues des signes vise en premier lieu les personnes malentendantes qui ont besoin de communiquer facilement avec des personnes entendantes (Qui ?). Il peut aussi servir à des locuteurs de langues des signes différentes qui ne maîtrisent pas la langue des signes internationale. Il vise à résoudre les problèmes de communication de la vie courante afin de faciliter la vie aux personnes malentendantes et permettre leur intégration plus facile sans passer par l’apprentissage difficile de langues “étrangères” orales (Quel problèmes ?). Enfin, il vise à protéger la dimension sociale et culturelle des langues signées, ainsi que de permettre l’intégration de personnes malentendantes non signantes vivant isolées du monde (Quel avenir ?).

Qui ?

Les langues signées aujourd’hui

Les langues des signes sont diverses et variées. On recense plus de 150 langues des signes significatives parlées dans le monde, il en existe au total probablement plus de 300, comptabilisant plus de 72 millions de locuteurs. Parmi elles, 24 sont parlées par plus de 10 000 locuteurs, comptabilisant à elles seules plus de 15 millions de locuteurs ou 21% du nombre total de locuteurs de langues signées. Ces langues représentent de très grosses bases de locuteurs, comme la langue des signes Indo-Pakistanaise comptabilisant plus de 6 millions de personnes selon Ethnologue ou la langue des signes Chinoise qui comptabilise plus de 4 millions de signants estimations basses. Ces langues signées sont capables de rivaliser en nombre avec des langues orales comme l’Albanais ou le Slovène; toutefois si ces dernières disposent de traduction automatique, les langues des signes avec d’aussi grosses bases de locuteurs n’en disposent pas malgré les bases de données formées dans des dictionnaires accessibles en ligne.

Il faut également noter que les langues des signes sont certes en majorité parlées par des personnes malentendantes mais aussi par les groupes de personnes entendantes, en général l’entourage proche, parfois des villages ou petites communautés, qui vivent avec eux.

Les personnes malentendantes : un groupe potentiel

D’après l’OMS : “Over 5% of the world’s population – or 430 million people – require rehabilitation to address their disabling hearing loss (including 34 million children).”. 

5% de la population est suffisamment malentendante pour avoir un besoin nécessaire de correction de l’audition pour continuer à avoir une communication normale avec le reste du monde. Si aujourd’hui ces 5% représentent 430 millions de personnes, en 2050 ce nombre aura grimpé à plus de 700 millions de personnes. De plus, 80% des personnes malentendantes vivent dans des pays aux revenus faibles ou moyens, où l’accès à la médecine pour corriger son audition est faible et/ou difficile. Sans moyens de regagner son audition, c’est l’isolement assuré et la communication difficile avec son entourage. A l’heure actuelle, plus de 34 millions d’enfants sont malentendants avec incapacité, ce qui veut dire plusieurs millions d’enfants qui n’ont pas une sociabilité correcte, une éducation accessible, un accès à l’administration accessible s’ils n’ont pas la capacité de communiquer correctement avec des moyens à leur portée.

Quel problèmes ?

Les personnes malentendantes (signantes ou non) rencontrent de nombreux problèmes incapacitants dans nos sociétés où cette communauté est peu représentée. Une étude du CNSA et de l’INPES faite en France montre de nombreux problèmes que rencontrent les personnes malentendantes du point de vue social.

  • Discrimination : les personnes malentendantes sont souvent discriminées et stigmatisées, que ce soit dans la rue, à l’emploi, dans les services publics, etc. Dans ce genre de situations, les personnes malentendantes sont écartées ou mal traitées en raison du manque de communication aisée. Les personnes malentendantes passent pour “des personnes manquant d’intelligence” (p.53 de l’étude), subissent des violences, des humiliations, des attaques personnelles, etc.
  • Accès à l’emploi difficile : Au travail, la difficulté de communication rend très difficile l’emploi de personnes malentendantes, ou parfois provoquent des licenciements pour faute causée par une incompréhension. Au delà de la discrimination, la difficulté d’accès à l’emploi pose aussi un problème économique important pour de nombreux membres des communautés malentendantes.

Les ajustements sur les lieux de travail se font rarement et sont coûteux, donc pas pratiques pour l’employeur. L’incompréhension de la situation des personnes malentendantes joue aussi beaucoup sur le manque d’adaptations. L’accès à l’emploi est rendu difficile par un niveau d’étude et de qualifications souvent plus faible car lui-même rendu compliqué.

  • Manque d’accès à l’éducation : les enfants malentendants ont souvent des difficultés à accéder à une éducation en langue des signes en raison du manque de professeurs pouvant communiquer de la sorte et en raison du manque d’écoles spécialisées. De plus, beaucoup d’enfants malentendants grandissent dans des milieux entendants et ne se voient jamais avoir accès à l’enseignement d’une langue des signes afin de faciliter la communication et leur propre expression. Enfin, dans des écoles entendantes le suivi est difficile en raison de la difficulté supplémentaire de compréhension quand on doit lire sur les lèvres en plus de comprendre, retenir et écrire.
  • Manque d’accès aux services publiques : lors de situations importantes comme une situation médicale d’urgence, un dépôt de plainte, un renouvellement de passeport, etc, le manque de communication rend les choses difficiles, voire dangereuse, fausse les informations et parfois mène aussi à de la discrimination en minimisant les problèmes auxquels font face les personnes malentendantes.
  • Isolement : lorsqu’on vit dans un milieu entendant, si l’on ne parle pas de langue des signes et que l’audition est trop mauvaise pour comprendre les locuteurs oraux, on se retrouve vite isolé et incapable de s’exprimer rapidement sans passer par l’écriture. Écriture qui n’est d’ailleurs pas toujours évidente pour les personnes malentendantes de naissance car rattachée à une langue orale (considérée comme étrangère). Parler une langue des signes ne règle pas le problème si l’entourage entendant n’en parle pas. Ainsi, des communautés malentendantes se forment où il est possible de s’exprimer et de communiquer activement, mais ces communautés sont souvent coupées du reste de la société et ont du mal à s’impliquer dans des évènements courants comme la politique, le divertissement, etc. 

D’après l’étude du CNSA et de l’INPES : “quand le niveau de surdité est relativement important, toute interaction basée sur l’oral s’avère potentiellement problématique pour soi (et éventuellement pour l’autre). A minima, les personnes ne peuvent plus capter les détails des discussions, leurs subtilités, l’humour, les paroles recueillies à voix basses, celles des enfants trop aiguës pour les appareils… Ce qui fait l’authenticité de l’échange, sa spontanéité,n’existe plus. La participation à des situations de groupe (réunions familiales, de travail, cours, formations, activités de loisirs…) est freinée par la fatigue occasionnée par les difficultés de concentration et dans la mesure où l’appareillage y trouve ses limites.” (p.9).

Enfin, l’isolement au niveau communautaire est problématique car limitant l’information atteignant les communautés malentendantes et risquant leur déformation (p.22 de l’étude).

Tout cet isolement est un des facteurs majeurs pour un individu qui conduisent à la dépression et aux atteintes à la santé mentale.

  • Manque de représentation politique : comme dit précédemment, l’isolement prévient souvent l’implication dans le monde politique. De plus, le retrait des communautés malentendantes par crainte de discriminations les rend souvent invisibles aux yeux des politiques. Ainsi, les structures sociétales nécessaires à l’intégration et au bien être des personnes malentendantes sont souvent faibles voire nulles car personne ne s’en préoccupe.
  • La culture entendante comme obstacle : “Même lorsque l’écrit est compris et l’oral maîtrisé, des sourds indiquent un manque de confort et de plaisir dans la lecture et de fait, un manque d’appétence pour celle-ci, délaissée au profit d’informations plus visuelles.” (p.19). La culture entendante est adaptée aux entendants, pour une personne sourde de naissance il est difficile de s’y adapter, l’écrit est inconfortable, on ne comprend pas toutes les références passées depuis la culture entendante, etc. Ce qui explique aussi pourquoi de nombreuses personnes refusent les avancées médicales concernant la restauration de l’audition : il est difficile de changer de culture.
  • Traduction en direct souvent compliquée : la traduction d’une langue orale vers une langue des signes en direct est souvent compliquée en raison de la différence des structures grammaticales, du contexte, etc. Beaucoup de personnes malentendantes finissent par demander aux interprètes de signer directement de l’anglais ce qui n’est pas pratique pour eux mais toujours plus claire qu’une langue des signes traduite rapidement et chaotiquement. Cette traduction en direct s’explique en partie par le fait que les interprètes n’ont pas grandi dans des milieux malentendants (et n’ont donc pas une langue des signes pour langue maternelle) et manque d’une formation efficace. C’est comme transposer des expressions anglaises en français, “il pleut des chats et des chiens” ne fait pas vraiment sens en français, le contexte ne porte pas à la compréhension de cette expression, si nous étions des locuteurs malentendants nous demanderions directement à ce qu’on nous parle en anglais malgré notre maîtrise insuffisante de cette langue.
  • Inaccessibilité des appareils auditifs : les appareils auditifs sont cher, souvent peu pratiques car nécessitant des conditions très spécifiques pour entendre correctement, ils prennent du temps pour la mise en place et l’entretien, et portent atteinte à culture malentendante. De plus, ils ne favorisent pas l’éducation d’enfants avec une surdité élevée car ne facilitent pas plus la communication qu’une langue signée, provoquent des maux de tête, font se concentrer l’enfant plus sur ce qu’il entend que l’information qu’on souhaite lui transmettre.
  • Méconnaissance : la méconnaissance des situations que rencontrent les personnes malentendantes freinent les interactions, les solutions, les adaptations, etc. Cette méconnaissance se trouve aussi dans les médias et internet, qui ne sont souvent pas adaptés pour la compréhension des personnes malentendantes (peu de sous titres, rarement des interprètes, etc).

Enfin, nous noterons une citation qui résume tout le projet de ce rapport, page 53 de l’étude du CNSA et de l’INPES : “Les personnes rencontrées qui pâtissent le moins de relations insatisfaisantes sont celles en capacité de communiquer en LSF avec leurs pairs”.

Quel avenir ?

Un moteur de traduction permettant la communication dans une société ségrégant les personnes en fonction de leur capacité à entendre permettrait de couvrir les problèmes évoqués, d’améliorer la visibilité des personnes malentendantes, de faire tomber les barrières qui séparent les communautés malentendantes et entendantes. 

Enfin, ce moteur permettrait aussi de rompre l’isolement de personnes ne sachant pas signer, soit en les intégrant dans des communautés malentendantes et signantes, soit en leur permettant ainsi qu’à leur entourage d’apprendre une langue des signes. De plus, faciliter la communication avec des personnes malentendantes permet de favoriser la préservation des cultures malentendantes dans une optique de conservation de la diversité culturelle que nous connaissons.

Si l’usage des langues des signes est popularisé d’ici 2050 alors potentiellement une base de plusieurs centaines de millions de personnes pourraient avoir un besoin d’apprendre et de communiquer en langues signées. La création d’un moteur omnidirectionnel de traduction de langues des signes est donc aussi une perspective d’avenir et son propre outil pour sa popularisation en incitant l’utilisation des langues des signes. En effet, ce moteur sera original dans le sens où il concentrera la pluralité des langues des signes ainsi que la pluralité des directions de traduction, il prendra également mieux en compte la grammaire signée. Ainsi, cet outil sera plus attractif en concentrant les intérêts des différentes communautés malentendantes (et des acteurs qui leur sont associés) ainsi qu’en affichant une meilleure efficacité dans la compréhension des discours et enjeux signés.

Comment ?

Les langues signées, ayant un mode de transmission de l’information différente des langues orales, posent plusieurs problèmes dans leur traduction automatique. Dans un premier temps, il faut réussir à les capter, puis il faut reconnaître les signes avant de les traduire vers une langue orale ou signée. Enfin, il faut pouvoir représenter des discours signés lors d’une traduction vers une langue des signes.

Capture vidéo

La capture vidéo consiste à enregistrer le mouvement d’un discours signé. Lors d’une capture vidéo, il faut donc pouvoir détecter les mains et leur mouvement afin de, plus tard, reconnaître les signes. Toutefois, le défi principal est que le mouvement ne peut pas être compris comme une trajectoire seule mais plutôt comme un ensemble de paramètres : une langue des signes réalise sa grammaire par de multiples paramètres, qui varient langue à langue, comme l’amplitude de mouvement, la vitesse, la position de départ et d’arrivée des signes, etc. Enfin, une partie de la grammaire passe aussi par les expressions faciales voire par les sons émis (être malentendant ne veut pas dire ne pas pouvoir reconnaître un son).

Afin de capturer de manière efficace une langue des signes, il faut donc considérer différents arrières plans et ne pas se limiter qu’à la trajectoire des mains seule. Voici un ensemble de capteurs qui peuvent être envisagés car possiblement appropriés  : 

  • Capteurs visuels:                              
  • KINECT: Kinect permet aux utilisateurs de contrôler et d’interagir avec la console sans avoir besoin d’un contact physique avec une manette de jeu vidéo traditionnelle, grâce à une interface utilisateur naturelle qui reconnaît les gestes, entre autres. 

Ce dispositif n’est pas seulement utilisé dans le domaine des jeux vidéo, mais aussi dans d’autres domaines tels que la rééducation. Dans le domaine de la rééducation, le capteur Kinect a été employé comme outil pour aider les patients à effectuer des exercices de mouvement et de renforcement. Le capteur peut détecter et suivre les mouvements du corps en temps réel, ce qui permet au thérapeute ou au patient d’évaluer la qualité et la précision du mouvement. En outre, le capteur peut fournir un retour visuel et auditif en temps réel pour aider le patient à corriger sa posture et ses mouvements. 

Et, bien sûr, il a déjà été utilisé pour développer un traducteur en langue des signes. Des chercheurs chinois, en collaboration avec Microsoft Research, ont mis au point un traducteur en langue des signes. Celui-ci permet la communication entre les personnes qui parlent la langue des signes et celles qui ne la parlent pas. Il fonctionne dans les deux sens, traduisant la langue des signes en texte écrit de la manière dont la personne s’exprime et vice versa, grâce à un avatar qui affiche en langue des signes ce que la personne est en train de dire. Malheureusement, Kinect est limité en distance.                              

  • LEAP MOTION : Il est capable de capturer les positions en 3D des mains et des doigts MAIS doit fonctionner à proximité du sujet. Il a été utilisé auparavant pour enregistrer des gestes de la langue des signes. De nombreuses études ont montré le potentiel de ce dispositif, mais l’interface de programmation d’applications (API en anglais) qui supporte l’appareil n’est pas encore prête à interpréter toute la gamme de la langue des signes. À l’heure actuelle, Leap Motion peut être utilisé pour la reconnaissance des signes de base, mais il n’est pas adapté aux signes complexes, en particulier ceux qui nécessitent un contact avec le visage ou le corps. Les signes deviennent donc imprécis et impossibles à distinguer. De nombreuses recherches et formations sont encore nécessaires.     
  • RFID : Des antennes et des lecteurs de signaux RFID ont été adoptés pour la reconnaissance de la langue des signes. Des étiquettes d’identification par radiofréquence (RFID) passive pour capturer simultanément plusieurs micro-mouvements des doigts afin de permettre la prise en charge de la langue des signes.
  • Capteurs portables :
  • EMG: Les électromyogrammes sont utilisés pour capturer l’activité électrique des muscles pendant les mouvements du bras. Le brassard Myo et d’autres objets portés sur soi capturent les signaux pour la reconnaissance. Le Myo est un brassard intelligent qui s’attache autour de l’avant-bras et utilise une série de capteurs EMG pour détecter les impulsions électriques générées par les contractions musculaires. Les données générées sont envoyées à l’appareil connecté pour reconnaître et interpréter le mouvement.
  • Smartwatches : Utilisées pour collecter les signaux gestuels et les traduire en langage parlé en temps réel en envoyant vers un smartphone. Très limité. 

Les smartwatches sont utilisées pour recueillir des signaux gestuels et les traduire en langage parlé en temps réel, en envoyant ces données à un smartphone. Elles captent les mouvements du poignet à l’aide de capteurs intégrés. Ces appareils peuvent reconnaître des gestes spécifiques et les interpréter en commandes vocales ou textuelles. Toutefois, les capacités des smartwatches sont limitées par la petite taille de leur écran, leur faible puissance de traitement et la courte durée de vie de leur batterie. En outre, la précision de la reconnaissance des gestes peut être affectée par des variations individuelles dans la manière dont les gestes sont effectués.

  • DATA GLOVES : Fournissent des résultats très précis en temps réel, mais peuvent nécessiter des réglages (flex sensor…) et sont considérés comme invasifs par les personnes qui signent (un peu désagréables pour l’utilisateur).

A terme, il sera intéressant voire crucial de permettre de capter une langue des signes à partir d’un téléphone portable. Ainsi, n’importe quelle vidéo prise par un utilisateur pourra être traduite, ce qui permettra une démocratisation très importante du moteur de traduction. Toutefois, pour cela il faudra développer une technologie permettant de capter le mouvement en utilisant les capteurs par défaut des téléphones, ou en utilisant une simple vidéo déjà prise. Pour ce faire, nous pouvons, encore une fois, imaginer une solution se basant sur l’IA ,ainsi que sur la technologie utilisée par les fabricants de jeux vidéo pour l’animation d’avatars (à partir de vidéos de motion actors).

Reconnaissance

L’étape de la reconnaissance consiste à interpréter le mouvement, c’est-à-dire à coller une étiquette sur chaque signe ou groupe de signes. Ainsi, on rend accessible l’input en passant de mouvements captés à des mouvements reconnus et donc traitables. Une telle reconnaissance peut être réalisée grâce à une intelligence artificielle. En effet, comme dit précédemment l’analyse de la trajectoire manuelle seule n’est pas suffisante pour une reconnaissance et traduction adéquate de langues signées : la moindre variation de mouvement, d’expression faciale, d’ordre des signes, etc, peut venir modifier le discours.

Pour développer et entraîner cette IA, deux types de bases de données peuvent être envisagées : 

  • Les ensembles de données de reconnaissance continue de discours :

Elles consistent à classer les vidéos signées en phrases entières, ce qui constitue un défi en raison de l’absence d’annotations précises concernant les limites des signes. Un exemple est BSL-1K, une grande base de données contenant des enregistrements vidéo d’émissions d’actualités britanniques pour la langue des signes, c’est-à-dire des discours connus et plus facilement segmentables.

  • Les ensembles de données de reconnaissance de signes isolée :

Elles se concentrent sur la détection précise des gestes à signe unique dans les vidéos. Un exemple est LSA64, pour la langue des signes argentine, qui contient 3200 vidéos avec 64 types de signes différents exécutés par des gens non experts.

Le problème principal rencontré pour la reconnaissance est le manque de données, ce qui rend difficile l’entraînement d’une IA compétente dans ce domaine.

Traduction

Afin de traduire une langue des signes, il faut discuter du médium utilisé, c’est-à-dire : quand on reconnaît un discours, dans quoi est-ce qu’on va le transcrire avant de le traduire ou avant de le représenter ? Pour répondre à cette question, plusieurs solutions peuvent être envisagées : 

  • La première solution serait de passer par SignWriting, qui est une écriture spécialisée pour les langues des signes. Elle présente donc cet avantage d’être précise et adaptée pour la situation, de plus elle possède une transcription Unicode. Elle présente aussi un gros désavantage qui est sa complexité d’écriture et est donc plus complexe à manipuler par un programme. Aussi, elle n’est pas un texte ordinaire, ce qui rend plus compliqué son traitement par des processeurs de texte normaux. Enfin, dû à son caractère en deux dimensions, elle rend impratique la transcription d’un ensemble de facteurs réalisés au même moment.
  • La deuxième solution est de considérer qu’une traduction précise est impossible en raison de la trop grande différence de nature entre langues des signes et langues orales. Dès lors, il est possible de directement transcrire une langue des signes en une langue orale de référence (exemple : LSF vers français), c’est-à-dire passer en français mais en continuant de suivre la grammaire de la langue initiale (exemple : à partir d’une discours on obtient “je pomme avant manger” que l’on transforme/traduit ensuite en “je mangeais une pomme” ou “j’ai mangé une pomme”). Cette solution présente le gros désavantage d’écarter toute la réalité de la langue signée initiale et d’être très imprécise. En revanche, elle permet une transcription beaucoup plus simple de traitement.
  • La troisième solution est de passer par un outil venant de la linguistique : le gloss interlinéaire. Cet outil permet d’éviter la complexité de SignWriting tout en gardant une grande précision. Le principal désavantage est qu’il faut entraîner très spécifiquement l’IA de reconnaissance dans une optique de spécialité d’étude linguistique afin d’avoir une transcription très précise. L’avantage du gloss est qu’il sert de pilier à la future transcription : là ou SignWriting ou une transcription en langue orale doit être traduite vers la langue orale que l’on demande, le gloss peut être interprété plus facilement (car indiquant avec précision toute la structure grammaticale) et donc propose un basculement beaucoup plus simple d’une langue vers une autre. Le gloss est donc une solution efficace et beaucoup moins gourmande en ressource pour la traduction.

Par la suite, à partir de médium de transcription, il est possible de proposer une traduction vers n’importe quelle autre langue ou depuis n’importe quelle autre langue.

Représentation

Le prochain défi est de pouvoir représenter un énoncé que l’on traduit vers une langue des signes. Traduire et afficher la traduction en SignWriting n’est pas possible : il s’agit d’un langage trop compliqué et maîtrisé par bien trop peu de locuteurs des langues des signes. Il est donc plus optimal et pratique pour l’utilisateur de représenter une langue des signes directement en signes. Pour ce faire, l’utilisation d’un avatar est possible car non seulement il s’agit de la représentation la plus humaine, qui affiche toute la dimension des langues signées, mais aussi car la technologie des avatars 3D est de plus en plus fine et développée. Parce qu’en effet, pour représenter correctement une langue signée, il faut pouvoir représenter toutes les subtilités évoquées précédemment.

Deux manières sont possibles pour animer un avatar : soit une animation mécanique où pour chaque séquence est enregistrée le mouvement de chaque membre, soit une animation par fusion de séquences préenregistrées. Dans les deux cas, l’utilisation d’une IA semble cohérent afin de soit déterminer les séquences de mouvements à injecter dans les déplacements de l’avatar (les signes mais aussi les aspects grammaticaux), soit en fusionnant de manière naturelle les séquences préenregistrées et en appliquant des éléments grammaticaux et d’éventuelles modifications au résultat. Les deux possibilités sont équivalentes et dépendent du modèle d’animation utilisé ainsi que du hardware utilisé (si on favorise un gros stockage avec les vidéos à utiliser ou si on veut privilégier une unité de calcul très performante et importante par exemple).

Interface utilisateur

Ce moteur de traduction aura une interface utilisateur similaire aux moteurs de traductions déjà existants (comme Google Translate ou DeepL) qui prendra la forme d’un site web ainsi que d’une application dédiés.

L’utilisateur pourra décider soit d’upload une vidéo soit d’écrire, aussi il y aura la possibilité de choisir la langue de départ et d’arrivée dans la traduction. Éventuellement, il sera possible de détecter la langue des signes utilisée. En dessous de l’input, sera affiché l’output, à savoir soit un texte soit une vidéo générée.

Le but de cette interface est que l’expérience soit intuitive, agréable et pratique pour un utilisateur ou une utilisatrice qui souhaite rapidement prendre en main une traduction dans une situation dite urgente.

Business Plan

Production

Compte tenu de l’avancée déjà importante des outils de traduction, d’analyse visuelle et de recherche dans la matière, un temps initial de recherche et développement de un an et demi peut être envisagé avant les premières bêta. 

Afin de toucher le plus de monde et de disposer de bases de données importantes, il convient de commencer par les langues les plus parlées comme la langue des signes indienne, américaine ou française. Chaque langue doit être ajoutée au fur et à mesure compte tenu du temps nécessaire à l’adaptation à chaque spécificité voire de collecte de données sur le terrain.

Ainsi, durant la phase initiale, une seule voire deux langues devraient être développées afin d’afficher dès le départ la possibilité d’omnidirectionnalité. Envisager plus de langues lors de la phase initiale est compliqué compte tenu du coût de recherche et développement (R&D) initial sans revenu actif de société.

Toutefois, une fois le traducteur ouvert à l’utilisation, la R&D sera amortie plus rapidement compte tenu du faible niveau de coût de production à l’unité (s’il s’agit d’un logiciel/site web, quasiment tous les coûts se trouvent dans le R&D, aucune matière n’est nécessaire et quasiment aucun emploi associés à la production ne sont nécessaires). Une fois les premiers revenus engrangés, le développement d’autres langues est rendu possible et coûte de moins en moins cher à la fois pour l’entreprise mais aussi pour l’utilisateur. En effet, à chaque langue ajoutée l’expertise et l’efficacité augmente, tant du côté humain que du côté des outils utilisés, et le chiffre d’affaire avec bénéfices (car il s’agit d’une entreprise lucrative) permet de constituer une réserve suffisante pour la R&D qui limite l’impact sur le prix pour l’utilisateur. 

La R&D concentrerait trois équipes de développeurs du moteur de traduction, un développeur interface et ergonomie/designer, un chef de projet et une équipe marketing (embauchée sur les 8 derniers mois). Chaque équipe peut être composée de deux à trois personnes. Les ressources humaines et comptabilité peuvent être externes au projet durant ses premières phases. Voici une estimation du coût d’un tel projet, en utilisant le système de cotisation et de taxation français, et les salaires médians français :

PostesNombre de personnesSalaire par personne (net avant impôt)Total pour l’employeur par personne par moisTotal (18 mois)
Développeur94,500€8,069€1,307,178€
Designer13,500€6,308€113,544€
Chef de projet15,200€9,420€169,560€
Marketing (8 mois avant la fin du projet)34,400€7,893€189,432€
Total141,779,714€

Le coût du projet comprend aussi les charges qui devront être assumées. Pour calculer ces charges, nous n’avons pas trouvé d’informations précises en libre accès, le tableau suivant est donc une approximation vague à la hausse : 

ChargesCoûtTotal 18 mois
Coût des recrutements (estimation)24,000 € (TTC, /personne recrutée, un mois de recrutement)300,000 € (8 personnes, approximation selon la variabilité temporelle de recrutement par personne)
Comptabilité et RH (estimation, tout type inclus)120 € (TTC, /heure)69,120 € (32 h/mois)
Bureaux180 € HT-HC/m²/an location, 263 € TTC-C/m²/an location (Avignon)12m²/personne, 168m² de bureaux + infrastructures = 210m², 55,230 €/an, total : 82,845 €
Assurances (estimation)35,000€/an52,500€
Electricité (estimation)500€/mois9,000€
Internet96€/mois TTC1,728€
Miscellaneous (fonds de secours, matériel, etc)500,000€
Total1,015,193€

Le total du coût de développement d’un tel projet est donc estimé à 2,794,907€.

Ces charges et salaires sont constants après la R&D toutes conditions égales par ailleurs. Dans les faits, le développement des activités de l’entreprise nécessitera une augmentation des effectifs et donc une augmentation des charges, le total des dépenses augmentera ainsi. Par exemple, une fois le R&D initial mis en place, il peut être supposé que l’équipe marketing restera à plein temps, ce qui amène le coût de la masse salariale à 2,016,504€ sur 18 mois.

Monétisation

Afin de constituer un chiffre d’affaire au projet, plusieurs solutions peuvent être envisagées : 

  • Une utilisation gratuite comme d’autres moteurs de traduction populaires, mais limitée à un nombre de mots ou de temps de vidéo gratuite par jour ou par essai. Au-delà de cette limite, un abonnement est nécessaire.
  • Ou bien une utilisation fermée qui nécessite une inscription. Lors de l’inscription, il est vérifié votre statut de malentendant ou non, ainsi que votre type d’utilisation. L’utilisation est gratuite pour les particuliers et payante pour toute organisation (associations, entreprises, etc).
  • Des publicités peuvent être affichées sur le site/application. Toutefois, afin de ne pas dégoûter l’utilisateur, elles ne doivent pas gêner l’utilisation en étant affichées dans un coin par exemple. De plus, il est possible de sélectionner des publicités en langues des signes, et des publicités proposant des produits adaptés aux communautés malentendantes.
  • Une utilisation qui est payante pour toute organisation l’utilisant à des fins sociales (médecin, fonction publique, etc) et peut être décidée de plusieurs façons: soit en fonction du nombre de traductions, soit d’un abonnement au mois, soit d’un abonnement au mois par pallier de nombre de traductions, etc.
  • Toute utilisation lucrative par d’autres services est rendue payante et contractuelle. Il peut s’agir par exemple d’une utilisation par sous titres chez Youtube ou Netflix, etc.

Marketing

Dans l’objectif de connaître le traducteur à la population un problème surgit, en effet comment faire télécharger une application inconnue du grand public. Pour cela plusieurs idées nous permettent de régler ce problème :

  • Les Collaborations : A l’heure actuelle, la majeure partie de la population est quotidiennement connectée sur internet avec notamment les différents réseaux sociaux (Instagram, Youtube, Twitch, X …). Dans ces réseaux se sont fait connaître des influenceurs qui sont suivis par des milliers/millions de personnes sur les différentes plateformes. Ainsi, avoir des collaborations avec ces influenceurs ferait connaître l’application à énormément de gens. De plus, nous pouvons également faire des collaborations avec les plateformes directement ce qui met en avant l’application et ça dans le monde entier.
  • Services publics :  Imaginez que, lorsque vous allez voir votre médecin ou bien l’hôpital, on vous propose d’utiliser notre traducteur. En effet, des dizaines de millions de personnes par an en France ont un rendez-vous chez le médecin : l’approbation du médecin est une très bonne méthode pour faire connaître notre traducteur. Cela s’applique aussi aux autres services publics comme les écoles par exemple où des personnes malentendantes pourraient plus facilement s’intégrer et reste une bonne méthode pour faire connaître le traducteur.
  • Publicités :  La télévision reste, malgré l’apparition d’internet et des réseaux sociaux, un des médias les plus consommés.  Ainsi, nous pouvons diffuser des publicités afin de faire connaître notre traducteur. De plus, nous pourrions collaborer avec l’Etat sur des publicités concernant la sécurité routière, l’alcool, le harcèlement, c’est-à-dire des sujets tout aussi importants pour les communautés malentendantes; voire même demander une publicité approuvée par l’Etat sur notre traducteur si ce dernier approuve notre objectif social.
  • La Nouveauté : Notre outil est innovant dans la mesure où il concentre les utilisations de traduction. En effet, il existe déjà plusieurs traducteurs isolés qui traduisent d’une langue orale vers une langue des signes et qui ne gèrent qu’une seule langue (en général l’ASL). Souvent cette traduction est maladroite car se contentant d’accoler des signes sans réellement aucune perspective grammaticale. Notre traducteur est attractif car omnidirectionnel, prend en compte toute la dimension signée et concentre plusieurs langues.

Ces idées marketing sont ici présentées sous le prisme français mais elles seront, bien-sûr, adaptées et diffusées dans d’autres pays au fur et à mesure que le moteur sera capable de traduire les langues des signes d’autres communautés.

Revenus et Taxation

Pour une estimation des revenus nous devons en premier temps estimer le chiffre d’affaires potentiel. Pour ce modèle, nous supposons une utilisation gratuite avec publicité pour les particuliers et un abonnement professionnel, aucun contrat professionnel n’est envisagé. Nous supposons aussi que la première langue des signes développée sera la Langue des Signes Indienne (LSI) qui est la plus parlée avec 6,000,000 de locuteurs. 

Pour atteindre ce chiffre d’affaires, il est nécessaire de capter 1% d’utilisateurs de la LSI par jour dont 70% seraient des particuliers et 30% des professionnels spécifiques à la communauté malentendante indienne (médecins, fonction publique, etc). Les revenus de publicité sont calculés selon un tarif par mille impressions de 10€, avec une publicité différente affichée toutes les deux minutes et un temps d’utilisation moyen de 20 minutes par jour. 

Les abonnements sont fixés à 1,000 roupies indiennes par mois, ce qui équivaut environ à 11.2€. Voyez ainsi le tableau suivant : 

Revenus LSI HT-HCProportionRevenu MarginalRevenu total par périodeRevenu tranche de 18 mois (547j)
Publicité (Coût par Impression)0.70%0.01€*104,200€/j2,297,400€
Abonnements0.30%11.2€/mois (ou 1000 roupies indiennes)201,600€/mois3,628,800€
Total1%5,926,200€

Nous devons ensuite déduire les taxes nécessaires. Pour cela, nous partons de la prémisse suivante : l’entreprise sera une Société À Responsabilité Limitée (SARL)  française située à Avignon, et aura la quasi-totalité de ses revenus faits en Inde. Ainsi, certaines taxes sont modifiées en raison d’un chiffre d’affaires fait à l’étranger, il faut de plus passer au système de taxation sur les revenus indien (Goods and Services Tax) : 

Taxation sur 18 moisTauxMontant de la taxeMontant après taxe
Revenu Initial5,926,200€
TVA (Indienne)Exonération pour les abonnements, 18% pour les publicités.413,532€5,512,668€
Impôt sur les sociétésNon applicable car majorité des bénéfices en Inde0€5,512,668€
Taxe sur les bureauxN’existe pas dans le Vaucluse0€5,512,668€
Contribution à l’apprentissageNon applicable à moins de 250 employés0€5,512,668€
Taxe d’apprentissage0.68% des salaires bruts de la masse salarialeCompris dans le calcul des salaires
Contribution à la formation professionnelle1% des salaires bruts de la masse salariale
Taxe sur les salairestaxe progressive (100% des salaires imposables car réalisés à l’étranger)
CVAE9.273% CA hors charges483,217€5,029,451€

Ainsi, nous pouvons maintenant connaître le chiffre d’affaires sur 18 mois hors taxes, hors charges et hors salaires en les déduisant : 

Total du CA HT-HC-Hors Salaires1,997,754€

Nous pouvons enfin déduire le remboursement du prêt initial de recherche et développement. A raison de juin 2024, les taux en vigueur à la Banque Centrale Européenne sont de 4.50% pour un emprunt. Ainsi, si on fait une estimation à la hausse, nous pouvons partir du principe que le prêt initial sera à 4.50% sur 6 ans (durée peu standard et faible poussant à une baisse probable du taux). Le remboursement commencera donc à partir de 3 ans (un an et demi de R&D initial et un an et demi de revenus) et se fera donc en trois temps : 

Emprunt2,794,907€
Somme à rembourser2,920,678€
Somme par tranche de 18 mois973,559€

Ainsi, une fois le remboursement de ce prêt déduit, nous avons une estimation des bénéfices sur une période de 4 ans et demi après le développement initial, qui seraient d’environ 1,024,195€ tous les 18 mois. Une fois le prêt levé, les bénéfices de l’entreprise peuvent être assimilables au chiffre d’affaires hors taxes, charges et salaires.

Toutefois, cette estimation n’est que grossière et relative puisque sur un horizon de plusieurs années d’autres langues auront été développées, la base d’utilisateurs aura augmenté en proportion (par exemple avec l’enseignement et la popularisation de l’outil) et des contrats d’utilisation pourront être conclus avec des organisations gouvernementales et des outils du numérique (comme YouTube). L’utilisation du moteur de traduction sera ainsi plus conséquente et augmentera le chiffre d’affaires mais aussi les taxes qui sont progressives en France. Il faudra adapter les prix à chaque pays en fonction des lois locales ainsi que les taxes à payer (par exemple, si l’entreprise réalise un chiffre d’affaires en France, il faudra payer l’impôt sur les sociétés qui est de 25% en 2024). La masse salariale de l’entreprise va augmenter et les charges associées aussi.

Ainsi, l’estimation faite dans ce rapport du fonctionnement et des revenus concerne surtout les toutes premières années de développement et sera très variable sur le moyen et long terme.

Création d’idées

Dans le but d’obtenir des idées innovantes concernant notre projet, nous avons mis à contribution nos camarades de classes dans un brainstorming. L’idée de base d’un brainstorming est la suggestion spontanée d’idées selon sur un thème précis. Dans notre cas, nous avons animé une réunion d’une heure et demie afin de trouver des applications dans la vie courante de notre projet de traduction omnidirectionnelle des langues des signes. 

Avant toutes choses, il nous faut préciser que le groupe ayant participé à notre activité était seulement composé de personnes entendantes. Ce qui signifie que ces personnes n’ont probablement pas été confrontées aux difficultés que peut rencontrer une personne sourde ou malentendantes. Il nous fallait donc trouver un moyen de faire émerger des idées innovantes sur un problème dont peu de personnes ont conscience.

Pour cela nous avons divisé notre brainstorming en deux parties, une partie ludique et le brainstorming en lui-même. 

Jeux

Le but de cette première partie était de soumettre nos participants aux problèmes de communications rencontrés par des personnes signantes face à des personnes entendantes. Nous avons ainsi créé plusieurs mini-jeu que voici : 

  1. Le jeu des devinettes

Ce jeu consiste tout simplement, dans un premier temps, à demander aux participants d’essayer d’imaginer un signe correspondant au mot proposé oralement. Puis dans un second temps, nous leur avons montré des mots en LSF afin qu’ils essaient d’en trouver la signification en Français. Pour rendre cela plus amusants nous avons d’abord commencé avec des mots “simples” des mots dont leurs traductions en langue des signes viendrait de façon intuitive comme parapluie, oiseau, pêcher… puis nous leurs avons proposé des mots plus “difficiles” comme des couleurs ou des jours de la semaine.

  1. Le jeu du téléphone arabe

Dans ce jeu là, les participants doivent se mettre en ligne les uns derrière les autres. Le but est de communiquer un mot aux autres participants de la ligne un à un sans user de la parole. Ils doivent utiliser des signes ou bien mimer pour communiquer l’information. Nous avons ainsi montré à la tête de file des mots à communiquer aux autres tout d’abord avec une image puis, pour corser le jeu, nous lui avons montré des signes à reproduire aux autres. Quant à la personne en fin de ligne, il lui a été demandé de restituer l’information transmise par le premier. Encore une fois nous avons commencé par des mots simples comme un ordinateur, cuisiner… puis nous leur avons proposé des petites phrases comme “Je vais à Paris.” ou bien “Le soleil brille.”.

  1. Le jeu de l’entretien

Ici les candidats sont invités à se faire une fiche de présentation comprenant leur nom, prénom, age, profession, hobby et plat préféré pour finalement se mettre en binôme et se présenter à l’autre sans parler. Puis, les groupes se mélangent et les candidats devaient se présenter à nouveau et ajouter de nouveaux éléments à leur présentation.

Le but de ces mini-jeux est d’exposer les participants aux problèmes de communications entres des personnes signantes et non signantes mais aussi entre personnes signantes utilisant deux langages différents. Il était ainsi intéressant de les faire réfléchir sur la façon dont les signes peuvent être créés et partagés, et de les mettre en situation réelle pour voir que le simple fait de se présenter devient laborieux. Pour au final faciliter l’émergence d’idées nouvelles.

Brainstorming

Quant au brainstorming en lui-même, après avoir été confronté à ces problèmes il a été demandé aux participants de donner des exemples d’utilisation dans la vie courante d’un moteur de traduction de langues des signes. À l’aide de post-it, ils devaient répondre à la problématique donnée avec comme contraintes, encore une fois, le fait de ne pas communiquer oralement mais également ne pas simplement écrire ses idées et toutes les minutes, d’échanger son post-it avec un autre participant pour pouvoir ainsi partager son idée et compléter celle des autres. Puis dans un second temps il leur a été demandé de mettre en commun les meilleures idées des post-it sur un tableau, tout en conservant le silence.

Nos résultats

Au cours de cette réunion les participants ont été amenés à jouer à différents mini-jeux, leur participation volontaire nous a permis de faire émerger les différentes idées que voici : 

  • Usage scolaire et éducatif, un outil pour l’enseignant et les élèves.
  • Usage télévisuel, afin de permettre l’accès à l’information, le divertissement (notamment la musique) mais aussi les communications du gouvernement…
  • Usage dans les hôpitaux, faciliter la communication entre le patient et le médecin.
  • Usage dans les lieux publics, afin de simplement passer une commande en magasin, sociabiliser, déposer une plainte, éviter les dangers…
  • Usage lors d’un événement, que ce soit du théâtre, un concert ou autre.
  • Conception de lunettes ou casques en réalité augmentée pour la traduction directe. 

Conclusion

Nous constatons qu’environ 72 millions de personnes dans le monde utilisent principalement une langue des signes pour communiquer. De plus, des études de l’OMS montrent que 430 millions de personnes souffrent de pertes d’audition pouvant être incapacitante ce qui les conduit à adopter un autre moyen de communication. En prenant cela en compte, il en résulte une problématique concernant les difficultés de communication entre les communautés signantes et non signantes. D’où l’intérêt de la création d’un moteur de traduction omnidirectionnelle entre ces différentes communautés. Cela permettrait une meilleure intégration des personnes sourdes ou malentendantes dans la société grâce à un usage scolaire, télévisuel mais aussi dans un cadre public et pourquoi pas ludique. 

Pour mettre en place ce moteur de traduction, il est nécessaire de capter précisément le mouvement ainsi que de l’interpréter par intelligence artificielle, grâce à la mise en place de bases de données spécifiques. A terme, il sera possible de traduire en filmant directement depuis son téléphone portable. Couplé à un système de basculement efficace, il sera possible de traduire aisément une langue signée.

Ce projet de moteur de traduction omnidirectionnelle pourrait être mis en avant grâce à des partenaires tels que Youtube, Netflix, X (anciennement Twitter)… qui ont le moyen de toucher un très large public ou bien tout simplement grâce à des spots publicitaires diffusés à la télévision. Il serait également envisageable que le moteur de traduction soit directement proposé par des services publics comme les hôpitaux, les mairies ou autres. 

Jouer sur la corde de l’innovation mettra également ce projet en avant puisqu’il prendra en compte les particularités linguistiques de chaque communauté sans faire une simple transposition mot à mot. La langue des signes indienne (LSI) étant la plus parlée, le projet proposera à son lancement seulement celle-ci. Afin de le rentabiliser, le moteur de traduction sera proposé gratuitement, avec quelques publicités non intrusives aux particuliers, mais aussi avec la possibilité d’un abonnement mensuel dans le cadre d’une utilisation professionnelle, notamment chez les différents services publics aidant à l’intégration des personnes malentendantes. Par la suite, l’ajout de nouvelles langues permettra l’augmentation de l’utilisation du moteur de traduction ainsi qu’une popularisation de son usage dans la société. 

Ainsi, avec ce projet, nous espérons faciliter les échanges entre communautés afin d’éviter l’isolement et les discriminations que le manque de communication peut engendrer sur les communautés malentendantes, et de favoriser leur intégration, d’où le côté humaniste. De plus, nous créons un moteur de traduction de langue des signes grâce à une implantation de l’intelligence artificielle et un traitement du langage signé efficace; ce moteur concentre aussi la diversité des langues, la simplicité et les directions de traduction, d’où le côté innovant. Enfin, nous avons vu des moyens de populariser ce projet et de monter une société au chiffre d’affaires conséquent, d’où le côté entrepreneurial.

Sur l’application de l’Intelligence Artificielle Générative dans les différents domaines du Langage.

Sur l’application de l’Intelligence Artificielle Générative dans les différents domaines du Langage.

Depuis la récente démocratisation de l’intelligence artificielle générative, nous avons vu apparaître des modèles très performants en termes de langage. Des modèles comme ChatGPT ont de très bonnes performances en termes de compréhension et production du langage, et, plus généralement, les modèles nécessitant des promptes ont de bonnes compréhensions du langage et ce malgré une compréhension des consignes humaines plus faibles ayant conduit à l’apparition du prompt engineering. La compréhension du langage est donc devenue une clé qui a permis l’expansion et le développement des intelligence artificielles génératives (IAG). Dorénavant, les IAG sont utilisées comme outils et aides auxiliaires dans de nombreux domaines, facilitant voire améliorant les travaux de leurs utilisateurs. Du cancer au pliage des protéines, de la génération d’images au traitement de texte, de l’assistance aux programmeurs à la prise de notes lors de réunions, les domaines touchés sont nombreux et divers. Toutefois, une question se pose : si le langage est un des piliers des IAG, qu’en est-il des applications de ces dernières aux domaines du langage ? Car, en effet, si les différentes sciences du langage comme la syntaxe et la phonétique ont permis de développer les capacités langagières des différentes IAG, ces dernières peuvent à leur tour consolider leur propre base de différentes manières. Ainsi, dans cet article nous verront l’application des IAG sur trois domaines du langage, à savoir l’apprentissage des langues par nous autres humains, les sciences du langage (c’est-à-dire la linguistique) et l’idéolinguistique.

            L’application la plus évidente et celle qui touche le plus de monde est bien évidemment celle de l’apprentissage des langues. Des modèles de dialogue populaires et faciles d’accès comme ChatGPT, qui maîtrise quelques 95 langues, sont l’occasion parfaite pour apprendre des langues. De plus, certaines IAG sont volontairement adaptées pour l’apprentissage des langues (vous en trouverez pléthores avec une simple recherche google) et proposent des fonctionnalités spécifiques comme la correction de ce que l’utilisateur dit, la capacité de dialoguer vocalement, des capacités d’entretenir des dialogues sur des sujets très populaires en ayant un accès à internet, etc. Bien que par le passé une traduction simple et parfois bancale pouvait déjà être très utile pour l’apprentissage de langues, aujourd’hui les possibilités d’apprentissage sont démultipliées et révolutionnées par l’IAG. La complexification de l’IAG permet aussi aujourd’hui l’apprentissage et traduction de langues autrefois difficiles d’accès comme les langues des signes. Certaines IAG comme Signapse permettent maintenant de traduire du langage vocal au langage signé (dans le cas de Signapse c’est depuis l’anglais vers la langue des signes américaine) de la même manière que les nouveaux modèles de ChatGPT ou autres permettent une traduction de l’écrit vers le vocal et vice versa. Un dernier avantage de la sorte est la possibilité pour l’IAG de s’adapter à votre propre apprentissage, difficultés et besoins, et de vous proposer des tests personnalisés instantanés ainsi qu’une correction immédiate.

La démocratisation de l’informatique et de l’IAG permet aussi à des individus de prendre des initiatives pour rendre accessibles plus de langues à l’apprentissage. Par exemple, en Nouvelle-Zélande Jonnie Cain et Jason Lovell ont créé Reobot, un chatbot qui permet de discuter et d’apprendre te reo Māori, la langue indigène de Nouvelle-Zélande qui a par le passé subit une pression linguistique très forte de la part de l’anglais néozélandais. Ce projet rejoint un intérêt grandissant pour le Maori néozélandais (à ne pas confondre avec le Maori des îles Cook) de la part des Néozélandais, qui est lié à l’émergence d’une culture typiquement néozélandaise héritant plutôt fortement de la culture Maorie. Reobot est suivit de nombreuses initiatives similaires (FirstVoices, Opie, etc) à travers le monde qui répondent à l’intérêt croissant de nombreuses populations pour les langues d’héritage (heritage languages) et pour la préservation du patrimoine linguistique. Ces initiatives sont d’autant plus intéressantes qu’elles doivent faire face à un problème majeur, à savoir le manque de locuteurs et/ou de bases de données écrites, d’où l’intérêt d’avancées technologiques comme la possibilité de faire passer les IAG par la parole ou encore comme le Deep Learning qui pourrait, à terme, permettre des traduction et locutions performantes avec des langues peu dotées. Ainsi, il y a un espoir de meilleure conservation des langues vivantes en danger, quand 42% des langues du monde sont menacées de disparaître d’ici les 100 à 150 ans à venir (soit entre 2900 et 5500 langues, dépendamment de comment l’on compte).

Une utilisation tout aussi intéressante des IAG concernant l’apprentissage serait l’adaptation de ce dernier au niveau neurologiques. Notre compréhension du cerveau humain augmente tout en restant imparfaite, ainsi avoir des outils pour favoriser l’apprentissage quand celui-ci doit coexister avec des troubles cognitifs ou des troubles de l’apprentissage est un atout révolutionnaire. En particulier, adapter les supports d’apprentissage à des individus dyslexiques, étant dans le spectre autistique ou présentant tout autre trouble spécifique du langage et de l’apprentissage permet une avancée importante dans l’éducation et même dans notre propre compréhension de ces troubles.

Au niveau linguistique, l’arrivée et le développement de l’IAG a aussi des conséquences intéressantes à noter. La première d’entre elles fait écho à ce que nous avons dit précédemment. En effet, bien que les IAG de langage sont loin d’êtres parfaites et ne maîtrisent qu’un nombre faible de langues, elles offrent des perspectives présentes et futures intéressantes. Des chercheurs du MIT par exemple ont développé une IA qui peut comprendre les structures, règles et patterns des langues humaines. Elle est capable d’analyser et des comprendre ces patterns sur plusieurs niveaux de complexité et, surtout, est capable de le faire avec un nombre de mots très limité (par exemple avec une douzaine de mots). Ainsi, une telle IA combinée avec la possibilité de lui enseigner une langue complètement pourrait permettre à des linguistes ou individus isolés et/ou n’ayant pas une connaissance et aisance suffisante avec l’informatique de préserver des langues en danger ou difficiles d’accès, et ce en rendant accessible une traduction et une grammaire des langues concernées. Concernant l’enseignement de langues à l’IAG, plusieurs personnes ont annoncé avoir pu enseigner des langues à ChatGPT telles que le Toki Pona avec des modèles tournant en local, bien que ce soit contesté par le fait que le Toki Pona aurait déjà pu être ancré dans les bases de données de ChatGPT étant donné que c’est une langue accessible avec une communauté très active sur internet.

Une autre application possible dans le domaine linguistique serait d’améliorer notre compréhension des langues anciennes, parfois partiellement indéchiffrées, et surtout des mécanismes qui les ont fait évoluer dans des langues modernes. Des chercheurs du MIT (oui, encore) ont par exemple créé une IAG qui est capable de déchiffrer et traduire des langues anciennes. Elle a par exemple pu déchiffrer le Linéaire A avec succès et affiche globalement un succès de plus de 60% pour le moment, ce qui affiche de beaux espoirs pour d’autres langues et systèmes d’écritures comme le Linéaire B ou le mystérieux manuscrit de Voynich. Au niveau de la compréhension évolutive du langage, on pourrait se servir de la capacité des IAG à analyser et traiter des corpus énormes pour expliquer de manière plus claire et synthétique les évolutions en question. Dans un premier temps, un simple coup d’œil à l’index diachronique nous permet d’observer des mutations phonétiques obscures et males expliquées, parfois même qui contreviennent aux principes de la linguistique (exemples : « V → ∅ / _# “in nominals » en proto-Boreafrasian ou encore « V{j,w}V → aː / in some sequences » en arabe classique). Ainsi, l’IAG pourrait nous permettre de trouver des explications plus précises et moins aléatoires à ces mutations en élargissant les règles de mutation. Une telle analyse de corpus serait tout aussi pratique et bienvenue en grammaire, sémantique ou pragmatique. Une telle régularisation de ces domaines pourrait notamment permettre leur stabilisation, étant donné que la sémantique et la pragmatique sont des champs de batailles rangées entre linguistes qui n’arrivent jamais à trouver un consensus sur le pourquoi du comment de nombreuses caractéristiques du langage.

Dans le même modèle, l’utilisation de l’IAG pourrait nous permettre de mieux retracer les origines, le fonctionnement et l’évolution (inversée) du langage. En effet, si au XIXe l’avancée majeure en linguistique était la comparaison de nombreux corpus de langues qui a aboutit à la découverte de la supra famille des langues Indo-Européennes, aujourd’hui ce domaine est bloqué car dans la plupart des cas « un chaînon manque » pour pouvoir avoir des reconstructions d’ordre supérieures. Bien que de nombreuses théories existent, elles sont débattues étant donné que les arguments donnés s’appuient sur des hypothèses qui elles-mêmes s’appuient sur des hypothèses et cætera, donnant une instabilité exponentielle dans la reconstruction à mesure que l’on augmente l’ordre de reconstruction. Le défaut dans ces reconstructions est principalement humain : en étant humain on manque la vision nécessaire pour tout considérer, que ce soit des mécanismes culturels, grammaticaux ou des langues filles qui pourraient appuyer une reconstruction. Ainsi, l’analyse des corpus des langues filles par l’IAG pourrait nous permettre de générer des langues mères plus stables et moins hypothétiques qui à leur tout nous permettrait de faire des hypothèses beaucoup plus stable quant à l’origine de nombreuses familles de langues, et ce en considérant tous les facteurs d’évolution possible (par exemple : si les famille de langues Indo-Européenne et Ouralienne pourraient être très proche il est quasiment impossible avec nos simples capacités humaines de savoir si cette proximité est due à une ascendance commune ou à un contact prolongé à leurs débuts). Une autre utilisation plus complexe de l’IAG et plus lointaine dans le futur pourrait être l’analyse et la reproduction des mécanismes du cerveau humain afin d’apporter une réponses à certaines théories s’appuyant sur la biologie ou la mathématique qui ne peuvent apporter de preuves observées et concrètes comme la théorie de l’universalité du langage de Chomsky ou encore toutes les théories quant à l’origine du langage humain et animal qui ne peuvent être résolues en testant en condition réelles car pouvant faire appel à des notions eugénistes et non-éthiques.

Pour terminer nous verrons les applications de l’IAG dans le domaine de l’idéolinguistique. Tout d’abord, il convient de préciser la définition de ce terme : l’idéolinguistique c’est une discipline qui concerne la création de langues. On peut créer des langues par souci de communication (espéranto), pour tester des hypothèses linguistiques comme celle de Saphir-Whorf (Toki Pona) ou encore par simple passion et folie artistique. Enfin, précisons que cette discipline se situe sur la dorsale de l’art et de la science : il s’agit d’un art car sujet de création et d’imagination, toutefois elle nécessite également une connaissance approfondie du langage pour se réaliser.

Plusieurs outils d’IAG sont utilisés par les idéolinguistes, qui tous permettent de leur faciliter la vie et de mieux se représenter leurs travaux. En particulier, des outils pour se représenter et mieux comprendre leurs langues maternelles sont très utiles et bienvenue. En effet, une grande partie de l’idéolinguisme repose sur la traduction de corpus, traductions qui poussent à la création lexicale et à la réflexion sur la langue créée. Toutefois, pour cela il faut avant tout comprendre la langue de départ, souvent la langue maternelle de l’idéolinguiste ou une langue de travail, qui n’est pas toujours évidente dans son fonctionnement au locuteur natif. Ainsi, des IAs comme Parts-of-speech sont les bienvenues. Parts-of-speech est une IA qui permet d’entrer un texte et d’analyser les fonctions syntaxiques des mots au sein du texte. Comprendre les fonctions syntaxiques des langues de départ permet donc une meilleure traduction et construction de l’idéolangue créée.

Une utilisation toujours hors de portée mais qui donne de l’espoir aux idéolinguistes est l’utilisation de l’IAG comme assistant direct dans le processus de création. Jusqu’à présent de rares outils existent comme Vulgarlang dont l’utilisation est très limitée. En effet, Vulgarlang n’est qu’un algorithme qui donne des paramètres de langues toujours similaires, pas très innovants. Cet algorithme n’est pas capable d’apprentissage et répète toujours le même modèle. Dès lors, la communauté d’idéolinguistes a pour espoir un développement prochain d’IAGs qui pourraient les assister dans le processus de création. Cela pourrait varier de l’assistance dans la mise en place de la logique globale et la cohérence de la langue à donner des idées d’étymologies ou caractéristiques originales et naturelles (plutôt que de devoir chercher par soi-même dans l’ensemble des langues existantes), en passant par l’aide à la création de néo scriptes (i.e. de nouveaux systèmes d’écriture) lorsque l’utilisateur passe les caractéristiques du scripte, son histoire ou autre. De telles IA seraient ainsi très utiles à la fois pour les créateurs ne voulant ou ne pouvant pas s’attarder sur la logique inhérente de leurs créations mais également les créateurs manquant d’imagination et préférant travailler sur la cohérence du projet.

Pour conclure, si le langage est un pilier de l’Intelligence Artificielle Générative, ces dernières peuvent également s’appliquer dans les différents domaines du langage. Dans un premier temps, elle révolutionne l’apprentissage des langues, permets de rendre plus accessible certaines langues moins connues et est une aide à l’apprentissage pour les individus atteints de divers troubles de l’apprentissage et du langage. Ensuite, elle offre des espoirs d’analyse du langage afin de mieux le comprendre, entre autres pour documenter plus facilement des langues rares, des espoirs d’une aide au déchiffrage de langues anciennes ainsi qu’une aide à la reconstruction linguistique. Pour finir, elle offre en perspective pour les idéolinguistes d’une aide à la compréhension des langues naturelles et d’une aide à la création d’idéolangues. Ainsi, l’IAG est et sera très utile dans les différents domaines du langage, ses perspectives sont nombreuses et très attendues par les différentes communautés linguistiques.

Liens et documentation :

A.I. Helps Detect Breast Cancer That Doctors Might Overlook

A.I. Helps Detect Breast Cancer That Doctors Might Overlook

Breast cancer is one of the most life-threatening diseases that affects mostly women of all ages, ethnicities and social backgrounds. This is why medical professionals strive to detect these types of tumours in advance in order to treat them efficiently and save the patient’s life in the early stages of the disease. However, a major concern falls into place when we look at figures showing that more than 680,000 deaths were caused by breast cancer according to the WHO (World Health Organization) in 2020. Even with advancements in detection and diagnosis, some cases still get overlooked, resulting in late treatment and worse results.

Now, advancements in Artificial Intelligence are making it possible for A.I. to help doctors detect signs of tumours that the professionals may miss. So far, this tool is showing an impressive ability to spot cancer at least as well as human radiologists. In Hungary, where artificial intelligence is being tested in different hospitals, 22 cases of cancer have been detected by A.I. when these had gone unnoticed by radiologists.

These hospitals perform 35,000 screenings a year, which is a lot and, according to The National Cancer Institute, about 20 percent of breast cancers are missed during screening mammograms. Therefore, A.I. cut down on radiologists’ workloads by at least 30%, reducing the number of X-rays they needed to read.

This A.I. software for breast cancer detection will definitely improve public health.

However, even if this technology is showing serious advancements, it still needs to improve so it can be widely adopted. Firstly, additional clinical trials are needed. A.I. must show accurate results for women of all ages, ethnicities and body types, it has to cut down false positives that are not cancerous and most importantly, recognize more complex forms of breast cancer.

Also, people are still kind of sceptical about this new technology saying that it may replace human radiologists. Nevertheless, there’s nothing to be afraid of because patients will only trust this technology if it is used in cooperation with trained professionals. So A.I. will definitely not replace doctors, each mammogram is reviewed by 2 radiologists first, and then the A.I. agrees or flags areas that they need to check again.

In addition, more countries are willing to use the same technology in hospitals. The United States, Great Britain and the European Union, for example, are testing and providing data to develop the systems to detect breast cancers in their early stage.

In short, Artificial Intelligence will help detect signs of breast cancer that radiologists may miss. If it is used in partnership with trained doctors it will revolutionise detection and diagnosis of this disease. However, it has to improve its accuracy, show precision over diverse body types and ethnicities, limit false positives and, of course, detect complex shapes of breast cancer so it can be widely adopted. 

On the applications of Alphafold AI

On the applications of Alphafold AI

Alphafold is an AI designed to predict protein folding, therefore it can make predictions based on probabilities, according to the deep learning the program has been through, about the form/structure of proteins. Before briefly explaining the problem with protein folding and the role of Alphafold, we will see what uses this AI can have.

To make it simple, proteins go through four stages of folding : a primary structure of amino acids that forms a secondary helix/pleated sheet structure that itself folds (third stage), plus we have to take into account the possible folding occurring between multiple amino acids sequences, when a protein is made of multiple. The problem with all of this folding is that it requires a highly technical knowledge about thermodynamics and interatomic forces and possibly process thousands of folding points in a single protein. It is then extremely complicated for a human being to predict a protein structure. until 2018, the solution to predict those structures was to use expensive and long processes such as xray crystallography or nuclear magnetic resonance.

For that reason, Deepmind has been developing Alphafold, an AI that can predict protein structure when given the amino acid sequence. Alphafold has been trained on over 170,000 proteins whose structures are already identified. The newest version, Alphafold2 (2020) has a success rate of more than 90%. Roughly, Alphafold2 uses an attention mechanism rather than convolutions, which means some entry elements are given more computing power. With this mechanism, Alphafold computes step by step the relations between amino acids and takes isolated portions of the protein to compare them to similar already computed sequences. The prediction of Alphafold2 takes place in two steps : first makes graphs to compute the possible structure then it translates them in a 3d model.

As You can expect, Alphafold2 opens a new door to research. Indeed, easily and quickly computing protein structures allows researchers to study ANY protein. It can especially improve our understanding of proteins which need to have precise shapes to bind with the molecule they act on. To give a more appealing example, Alphafold2 was used to predict structures of proteins of SarsCov2 (the virus of Covid19) in early 2020, which leads researches on how the virus breaks out of host cells it replicates in. To give one more application of Alphafold2, researchers also use it in the genetic domain, as it can help them understand the genesis of proteins within the cell from mRNA, which means understanding with more detail how DNA regulates the internal machinery of a cell.

For nerds, here’s a good, albeit brain melting, video.

More sources :

https://en.wikipedia.org/wiki/AlphaFold

https://en.wikipedia.org/wiki/Protein_structure_prediction

This post was made by Johanny Titouan, 23/09/2023.

Une IA capable de créer des images à partir de descriptions textuelles

Une IA capable de créer des images à partir de descriptions textuelles

Quand le robot WALL-E et l’artiste Salvador Dalí se croisent :

La magia del algoritmo 'artista': DALL-E 2 te permite crear imágenes a  partir de cualquier texto

Dévoilée le 5 janvier 2021 dans sa première version, c’est en avril 2022 qu’est annoncé Dall-e 2, une IA capable de générer des images à partir d’information textuelles avec une marge d’erreur très faible. Élaborée par l’entreprise américaine OpenAI basé en San Francisco, cette dernière peut générer n’importe quelle situation dans n’importe quel style. Les exemples sont bluffant (à souligner que ces images n’existaient pas avant leur génération) :

Infinite staircases

A 3D rendering of an explorer in an abandoned temple

De telles prouesses sont possibles grâce au codage en GPT3 (système de génération de texte) qui permet d’échanger du texte en pixel. De plus, Dall-E 2 utilise le « Remplissage de Blanc ». En effet, il arrive que dans certains textes demandés, certaines choses ne soient pas dites explicitement, ainsi, l’IA va elle-même interpréter ses sous-entendus et les afficher sur le rendu final. Par exemple, si l’on demande un coucher de soleil, l’IA va comprendre par elle-même que les ombres doivent être rasantes.

Redécouvrir des œuvres d’art est des photos grâce à Dall-E 2 ?

N’avez-vous jamais rêvé de restituer les contours d’une photo de vacances ou d’un tableau célèbre ? He bien, grâce à Dall-E 2, cela devient possible. Voici ci-contre, quelques exemples :

Plus beaux paysages naturels à découvrir en Europe
image d’origine
image générée agrandie
https://static.nationalgeographic.fr/files/styles/image_3200/public/Main_Guernica_BAT-10313.jpg?w=1600&h=900
Gernica de Picasso
Gernica de Picasso généré agrandi

C’est plus que troublant de se rendre compte de la précision de cette IA qui utilise des compétences purement humaines qui sont associées a l’art (technique, esthétique, etc…). Mais alors ou en est la limite ?

Les limites morales de cette IA :

En effet, n’en somme nous pas là face à un exemple de supériorité de l’IA envers l’Homme ? Et bien non, car sans données sur lesquelles s’appuyer, Dall-E ne peux rien générer. De ce fait, si nous empêchions à l’IA d’avoir accès aux œuvres d’art humaines, cette dernière ne pourrait rien générer de logique. Ainsi, elle dépend intégralement de la créativité humaine. Or, l’art humain ne pourra jamais être surpassé dans un monde ou les intelligences artificielles cherchent à établir des raisonnements concrets et infaillibles, et ce car :

L’œuvre d’art naît du renoncement de l’intelligence à raisonner le concret

Albert Camus, Le Mythe de Sisyphe
Grenier à sel

Grenier à sel

In the framework of the EU creative process, Mrs. Carole Rey organized a surprise outing for which she would not tell us the destination.

The departure was made from CERI at 2:17 pm, we took the bus C3 towards the city center of Avignon, all this while ignoring the destination. After 15 minutes of walking, we arrived at the « Grenier à sel » of Avignon. This is one of the oldest buildings in Avignon, it was built in the 14th century, about the same time as the Popes’ Palace! Formerly a salt store, it was sold after the revolution as a national property to private individuals.

During our visit, the guide explained the history of this place. The granary has been renovated and is now used as an exhibition center. 

The theme of the current exhibition is abstract art. 

In the first room that we visited we were able to watch a documentary about the making of a film about Pablo Picasso, this video aims to try to explain how this painter thinks and how he creates works. Also, we saw a video of an artist painting on hot stone with water. His drawing was quickly erased due to the heat, so the artist had to start his work over and over again.

In the next room, we could see works that used artificial intelligence to design them (partially or totally), here an example of work made with the cooperation of two artists and an artificial intelligence (each participant has a predefined color).

Finally, in the third room, we could admire a work combining video-projection and drawing. The superposition of these 2 techniques was superb.

Moreover, this room also had works made of origami that need to be filmed with a specific application to see them animated. The sequence of these animations told a story of a couple.

At the very end of our visit, we had the opportunity to create an abstract painting as a group that contained randomly generated patterns by the computer in green color. The pink and orange colors were made by us. The whole group participated in this beautiful piece of art.

https://legrenierasel-avignon.fr/

NICOLAS RECHE

NICOLAS RECHE

Qui je suis ?

Je m’appelle Nicolas, j’ai 19 ans et je suis actuellement en première année de CMI Informatique à Avignon.
Je suis passionné par la pratique sportive en ayant fait plus jeunes quelques années de football et de natation. Pour faire ensuite 7 ans de tennis et 2 ans de badminton.

Je pratique actuellement le VTT enduro depuis 8 ans et la musculation depuis 3 ans ( 2 ans à la maison et 1 an à la salle de fitness).
Mon passe temps favori est comme vous l’avez certainement compris, le sport. Mais cela ne m’empêche pas de lire des romans (d’horreur, psychologique, policiers ou d’aventures) , d’écouter de la musique, de me renseigner sur le corps humain ou autre ( principalement ce qui est en lien avec la musculation ).

Pourquoi choisir l’informatique ?

Depuis que je suis jeune, je voulais travailler plus tard dans l’informatique sans être pour autant un acharné de ce domaine. Mais au fil des années, j’ai de plus en plus découvert et aimé l’informatique. Depuis que j’ai eu cette passion pour la musculation, j’ai réfléchi à peut être faire STAPS après le bac mais j’ai finalement opté pour des études en informatique et un avenir d’après moi plus sûr.

C’est pour cela que j’aimerai tout d’abord finir mes études et commencé
à travailler dans le milieu de l’informatique en tant qu’ingénieur. Et après avoir une vie confortable, je voudrai essayer de vivre de ma passion.

Mais alors pourquoi le CMI ?

Au lycée, en terminal, j’ai entendu parler du CMI à Avignon de manière très positive. De plus, mon professeur d’NSI m’en a parlé plus en détail et m’a expliqué ce qu’était le CMI. Je me suis donc dirigé vers cette formation et je suis ravi d’avoir fait ce choix.

Nous avons des conférences intéressantes, mais également des projets à réaliser dans l’année. Ceux-ci nous permettent de nous améliorer dans le travail en équipe, en informatique également,etc… Nous avons des heures supplémentaire par rapport à une licence classique mais ces heures sont productives et intéressantes
Je recommande fortement cette formation !!

Matthieu Deloget

Matthieu Deloget

Bonjour à vous !

Pas très photogénique

Je suis Matthieu Deloget, j’ai 17 ans et je suis étudiant en première année à l’université d’Avignon, en CMI informatique.

Je suis un joueur régulier de jeux vidéos qui a arrêté depuis septembre de cette année. Le seul jeu auquel je joue actuellement est Minecraft, de temps en temps quand je n’ai rien à travailler ou que je n’ai vraiment pas envie de travailler. Je ne refuserais pas une invitation sur d’autres jeux par contre, tant que ce ne sont pas des Battles Royales 🙂

Je ne peux pas dire avec certitude dans quel domaine de l’informatique je travaillerais une fois que j’ai fini mes études.
D’un côté le domaine des jeux vidéos m’attire énormément car j’ai grandi avec les jeux vidéos, et c’est grâce à eux que l’informatique s’est introduite dans ma vie. La cryptographie m’intéresse aussi beaucoup car c’est un domaine vital de la société d’aujourd’hui, sans la cryptographie l’économie telle que nous la connaissions n’existerait pas.
Ce que je peux dire avec certitude c’est que l’informatique est ma passion et que je ferais tout pour travailler dans l’informatique.

J’ai rejoint le CMI suite à un conseil de mon professeur de NSI (Numériques et Sciences de l’Informatique) l’année dernière. Indirectement j’ai rejoint grâce à Jolan Moreau qui a présenté la formation à notre professeur. Le contenu de la licence m’intéressait déjà, mais les ajouts du CMI 2I2A par rapport à l’innovation sont très intéressants; car c’est en innovant qu’on fait avancer le monde, et qu’on s’enrichit au passage. Je n’attendais pas autant d’une licence d’informatique mais je pense avoir trouvé ma place ici !

Qu’est-ce que je peux dire en conclusion…
Si vous hésitez encore à venir dans l’université d’Avignon, venez, vous verrez à quel point c’est bien !
Et merci de votre temps pour avoir lu mon article !

Si vous avez besoin de me contacter pour n’importe quelle raison :
Mail : matthieu.deloget@alumni.univ-avignon.fr
Discord : LaSauceBolo#0615

Jolan Moreau

Jolan Moreau

Je m’appelle Jolan Moreau, j’ai 18 ans et je suis un étudiant en L1 informatique au CMI 2I2A à Avignon.

J’ai découvert l’informatique au début du lycée grâce à mon professeur de mathématiques, c’est à ce moment-là que j’ai compris que je voulais continuer dans l’informatique et que j’ai finalement choisi la spécialité NSI( Numériques et Sciences de l’Informatique) en première. C’est surement l’un des meilleurs choix que j’ai pu faire.

j’ai toujours aimé jouer aux jeux vidéos, plus particulièrement les jeux Nintendo. Je les ai découvert grâce à mes parents. J’aime aussi lire des mangas.

Le sport que j’affectionne le plus est le badminton, sport que je pratique depuis plus de 8 ans. Mais à cause du covid-19 j’ai du mettre en pause cette activité. j’espère pouvoir bientôt la reprendre.

Après mes études, je souhaite évidemment travailler dans l’informatique, plus précisément dans la programmation car c’est ce que je préfère apprendre.

J’ai découvert le CMI grâce à mon professeur de NSI qui m’a conseillé le CERI, et c’est en faisant des recherche sur le site de l’université d’Avignon et sur le site du CERI que j’ai découvert l’existence du CMI. J’en ai donc parlé à mon professeur de NSI. Il a regardé ce qu’était ce CMI et il m’a finalement dit que c’était une excellente idée et que je ne devais pas hésiter.

Les « 20% de cours en plus » ne m’ont pas fait changer d’avis car je pensais que les cours serait très intéressants. Finalement, je ne regrette absolument pas d’avoir choisi le CMI car les cours supplémentaires sont très instructifs . En plus de cela, l’emploi du temps de base n’étant pas trop chargé, il me reste du temps libre pour pouvoir profiter de mes passions.

Il est temps de finir cette présentation.

Donc pour conclure, si vous aimez l’informatique et que vous hésitez encore, n’oubliez pas l’existence du CMI informatique à Avignon car c’est vraiment bien, en plus Avignon est une belle ville. Donc foncez!!