Elles savent tout faire (ou presque) et vous simplifient la vie en quelques clics. Cependant, les IA ont aussi des faces cachées que beaucoup ignorent. ChatGPT, qui est probablement l’IA la plus utilisée en France depuis quelques mois, fait partie de ces outils intelligents à utiliser avec précaution. Outre les risques sur la cybercriminalité et les données personnelles, il en existe un qui ne fait pas encore échos, et pourtant… Faisons le point.
Qu’est-ce que ChatGPT ?
Pour ceux qui ne connaîtraient pas ChatGPT, il s’agit d’un nouvel outil d’intelligence artificielle créé par OpenAI. Son rôle est de générer des contenus textuels automatiquement. Pour cela, l’utilisateur doit lui fournir quelques informations simples et en quelques secondes, cette IA est capable de « rédiger » un texte ou un contenu sur le thème donné, en langage naturel. La lecture est fluide et le texte répond aux exigences dictées par l’utilisateur.
Ce chatbot humanoïde a connu la croissance la plus rapide de l’histoire, avec 100 millions d’utilisateurs en deux mois seulement. À titre de comparaison, le réseau social Tik Tok a mis 9 mois pour atteindre les mêmes prouesses. Gratuit et disponible en plusieurs langues, il est utilisé dans le monde entier et fait des miracles tant dans la sphère privée que dans l’univers du travail. Cependant, un grand nombre de professionnels lèvent le pied et retournent déjà à des méthodes de travail plus traditionnelles.
ChatGPT : les risques de cybercriminalité
Les étudiants l’utilisent pour rédiger leurs dissertations ou leurs mémoires, les lycéens y trouvent une aide pour leurs devoirs dans diverses matières, les chercheurs d’emploi lui demandent de rédiger aussi bien leurs CV que leurs lettres de motivation, les professionnels arrivent à créer des contenus ou obtenir des réponses à certaines questions, mais voilà… Les pirates informatiques sont aussi friands de ChatGPT pour créer des malwares ainsi que des mails de phishing !
Finis, les emails douteux que vous receviez avec des tournures de phrases un peu biscornues et des fautes d’orthographe à tout va. Désormais, grâce à ChatGPT, ils seront parfaitement rédigés jusqu’à vous faire douter de leur aspect frauduleux. Alors certes, cette IA ne fournit que du texte, ainsi, le reste de la structure des emails devrait toujours attirer votre attention, notamment sur :
Le logo ;
La mise en page ;
Le nom du signataire ;
L’adresse email ;
etc.
D’autre part, il a été démontré récemment que des activités malveillantes pouvaient être alimentées via l’IA et notamment ChatGPT, puisque l’outil est capable de générer des codes de malware. Les pirates informatiques voient donc leur activité se simplifier. De nombreuses entreprises spécialisées dans les antivirus bloquent déjà des attaques générées par l’IA et ChatGPT. Mais elles ne sont pas encore assez puissantes pour faire pivoter les infrastructures, déplacer les éléments, etc. De ce fait, même si la technologie progresse très rapidement, ChatGPT ne reste pour l’heure qu’un outil pour la conception de malwares, mais pas (encore) suffisamment intelligent pour dépasser les outils spécifiques.
L’utilisation malveillante de ChatGPT
Outre les problèmes de cybersécurité, il y a aussi l’utilisation nuisible de ChatGPT. Cet outil est dépourvu de conscience. En ce sens, il répond aux questions que l’utilisateur lui pose, ni plus ni moins. Mais lorsque ce dernier a des intentions malsaines, l’outil peut alors diffuser de fausses informations, voire tenir des propos extrémistes et donc encourager un mouvement de haine.
Il est bon de rappeler que ChatGPT se « nourrit » d’informations que lui apportent les utilisateurs. En d’autres termes, il peut être abreuvé de contenus erronés ou à caractère violent. Au fil du temps, qui sait ce que cette IA pourra diffuser aux utilisateurs ? La désinformation potentielle propagée par l’IA peut être très dangereuse.
Les risques de ChatGPT sur vos données personnelles
ChatGPT collecte les données personnelles de chaque utilisateur. D’ailleurs, comme la loi l’exige, cette information est mentionnée dans la politique de confidentialité de l’outil. Celles-ci peuvent être utilisées à des fins d’analyses, de recherches et d’améliorations du service fourni. OpenAI indique également qu’elle peut « transmettre vos informations à des tiers sans préavis, sauf si la loi l’exige ».
En s’inscrivant sur la plateforme, l’utilisateur lui fournit déjà de nombreuses informations personnelles. Puis, en utilisant l’outil, les historiques des recherches ainsi que les contenus des conversations, n’appartiennent plus à l’utilisateur, même s’il s’agit pourtant d’informations personnelles.
En d’autres termes, il est fortement déconseillé d’utiliser l’IA pour poser des questions d’ordre privé, comme sur le plan de la santé par exemple. De même, attention aux adolescents qui utilisent ChatGPT pour obtenir des réponses à des questions plus personnelles. Il n’est pas question de bannir cet outil, mais bel et bien de se rendre compte de l’impact de son utilisation. Beaucoup n’y voient aucun danger. Pourtant, l’on pensait aussi la même chose des réseaux sociaux à leurs débuts !
Et si ChatGPT annihilait l’esprit de réflexion ?
« Je pense, donc je suis », disait le célèbre philosophe et mathématicien René Descartes. Si les dangers cités ci-dessus sont déjà assez effrayants, que dire de ceux impactant directement l’esprit humain ? Avec l’arrivée d’internet, toutes les connaissances du monde (vraies ou fausses d’ailleurs) sont à portée de main, où que nous soyons. Cela est évidemment pratique, mais réduit considérablement la réflexion personnelle de l’être humain.
Il n’y a qu’à voir le nombre d’élèves, quel que soit leur âge, qui rédigent des exposés ou rendent des devoirs bourrés de copier-coller. Impossible d’appeler cela de l’acquisition de connaissances. Force est de constater que de plus en plus d’enfants (et un grand nombre d’adultes aujourd’hui) ne savent déjà plus écrire, alors qu’en sera-t-il de leur réflexion et de leur esprit d’analyse ?
La recherche d’informations, la sélection de données, la synthèse d’idées et la réflexion permettaient jusqu’alors aux êtres humains de produire des idées et des arguments. Toutes ces qualités propres à l’Homme sont presque devenues inutiles avec internet et encore plus avec l’IA.
Alors certes, internet peut être un bon outil, mais pas au point de pouvoir rédiger à la place d’un élève. Dès janvier 2023, ChatGPT a été bloqué dans les établissements scolaires new-yorkais, afin d’éviter la triche et l’abus de nombreux enfants. En France, plusieurs enseignants tirent la sonnette d’alarme, mais pour l’heure, aucune prédisposition n’a été prise, si ce n’est de limiter l’utilisation à un certain pourcentage de données issues de l’IA dans les copies.
Ces élèves qui sont les professionnels de demain vont obtenir toute ou partie de leurs diplômes grâce à ChatGPT (rappelons qu’une partie du BAC est en contrôle continu et que les mémoires en études supérieures sont aussi rédigés grâce à cette IA).
Ce sont ces mêmes jeunes adultes qui se vendent déjà sur le marché du travail avec des CV et des lettres de motivation générés par ChatGPT. S’ils ont la chance de se démarquer lors des entretiens d’embauche, que seront-ils vraiment capables de faire une fois en poste ?... C’est une question trop peu exploitée et qui pourtant mérite réflexion.
En somme : que deviendra le monde du travail d’ici quelques années et surtout, que deviendra l’humain dont la spécificité est d’être capable de réfléchir et de faire preuve de discernement ? Ne finira-t-il pas par devenir un simple exécutant de l’IA, entraînant ainsi la fin de l’ère des Homo Sapiens ?
Comments