Publié le

Intelligence artificielle : Science sans conscience n'est que ruine de l'âme

Je viens de publier mon manifeste d’utilisation de l’intelligence artificielle générative. Pourquoi ? Car je veux vous assurer une chose : je n’en n’utilise pas pour écrire mes articles de blog.

Je voudrais vous partager mes réflexions et mes questionnements qui m’ont permis de préciser mon utilisation de l’intelligence artificielle générative. Et surtout, j’aimerais vous amener à vous poser les bonnes questions, dans un exercice doublement périlleux : j’aimerais vous donner plus de contexte sur les outils aujourd’hui, et vous amener à devenir plus critiques sur ce qu’entraîne l’IA plus tard.

Pourquoi cela ? Car je pense qu’en termes de chaos, l’IA générative 1 a réussi à créer un assez impressionnant chaos. Que ce soit des deepfakes qui arrivent à arnaquer des entreprises en imitant leurs CEO 2, des livres sur les animaux qui utilisent de l’IA pour générer leurs photos d’animaux 3, l’hystérie mondiale autour des GPU 4 de Nvidia, le yoyo des bourses économiques avec la sortie du moindre modèle chinois, les LLMs ont réussi à créer un sacré bazar social, politique, environnemental et économique.

Bravo OpenAI.

En rendant leur premier modèle gratuit, ils ont réussi à créer un chaos incroyable qui s’ajoute à cette inlassable succession de choses qui ne sont pas dans ce monde. C’était plus simple quand nous étions en guerre que contre la covid (et Bokoharam, daesh…, j’en passe).

Aujourd’hui, l’écriture n’est plus une source de vérité, c’est une source de doute. Nous étions déjà à des records de diffusion de fake news, maintenant nous pouvons en créer encore plus, tout cela grâce à des investissements jamais vus jusqu’à présent.

Voyons d’abord comment on en est arrivé là.

La promesse de changer le monde

Je ne suis pas data ingénieur ou data scientist, mais de ce que je comprends des LLMs, ils s’appuient sur une technologie déjà bien connue : les réseaux de neurones. J’en parlais déjà dans mon article sur le son des guitares électriques, où je montrais à quel point les techniques de l’intelligence artificielle permettent de recréer des comportements qui étaient très dur à faire à l’époque.

Quand on prend un réseau de neurones, on prend un graphe orienté fait de “poids” qui influent sur une décision par rapport à certains paramètres en entrée. Qu’est-ce qu’un LLM ? C’est un ensemble de “poids” qui influent le choix d’un mot 5 par rapport à certains paramètres en entrée.

Vu que les réseaux de neurones ont eu de multiples 6 triomphes 7 dans des domaines que l’on pensait impossibles à résoudre pour un ordinateur 8, quand les premiers modèles de langage “GPT” ont commencé à fonctionner, l’enthousiasme de la communauté scientifique internationale était grand : enfin, on arrive à comprendre du langage.

Pour vous dire à quel point c’était un problème complexe, prenons deux exemples qui vous montreront la difficulté du traitement du langage pour un ordinateur.

Comprendre l’intention d’un visiteur sans contexte

Mon blog contient un chatbot sur la page d’accueil. Je l’ai créé à l’origine pour apprendre à faire un chatbot et utiliser une API de streaming, puis pour faire un peu de prompt ingénierie avec mistral large. Mais vous remarquerez qu’il vous propose toujours un lien sous la réponse du bot.

Ce lien est “codé” en dur. En fonction d’une chaine de mots détectée grâce à une horrible fonction qui code tous les cas, je retourne le bon lien. Par exemple, si vous écrivez “chat”, je vous redirige vers la page web de mon chat. Si vous écrivez “IA”, je vous redirige vers mon manifeste de l’IA. Si vous écrivez “dernier article de blog”, je vous redirige vers le dernier article de blog.

La partie difficile, c’est comment écrire un programme qui, en plus des trois précédentes questions, répond à la suivante : “Salut le chat bot, est-ce que tu as utilisé de l’IA pour écrire ton dernier article de blog ?”.

La réponse est difficile, car il faudrait naturellement répondre un lien pointant vers : le dernier article de blog, le manifeste de l’IA et préciser que cela ne s’écrit pas “chat bot” mais “chatbot”. Impossible de prévoir ce cas dans un programme déterministe.

Il se trouve que Mistral AI propose un service qui répond très bien à cette problématique : il est capable de répondre et de donner le bon lien vers lequel rediriger grâce à son système “d’appels de fonctions”. Plutôt bluffant !

La recherche balbutiante date d’il n’y a même pas 3 ans

Il y a 3 ans, j’avais assisté à un talk qui présentait comment une entreprise voulait répondre à une question assez simple : est-ce que les clients sont contents de leurs achats ?

Il y a trois ans, chatGPT n’était pas encore populaire, Gemini s’appelait encore “Bard” et c’était encore moralement OK d’utiliser DALL-E pour générer des images moches. Cette entreprise devait donc inventer la roue.

Pour répondre à cette problématique, ils avaient développé une solution qui parcourait tous les internets pour trouver un maximum de reviews, que ce soit sur des forums, sur des blogs, sur les réseaux sociaux, pour obtenir le moindre avis parlant d’un de leurs produits.

Une fois ces avis récoltés, il fallait répondre à deux questions : “de quel produit cet avis parle”, et “l’avis est-il positif ou négatif”.

Si je devais “construire” des avis sur divers produits du client, ils ressembleraient à ça :

Ah les city grip 2 un vrai banger 😎

Trop cher le modèle 4 S

après m’avoir lâcher(sic) 3 fois d’affilé(sic) plus jamais

Maintenant, imaginez créer, sans avoir accès aux milliards de récents investissements sur l’IA, un algorithme qui dit le produit et dit si son avis est positif, neutre ou négatif.

Aujourd’hui vous pouvez faire cela en un seul clic depuis votre IA préférée… Et cela est réellement prodigieux.

De l’optimisme naïf

Dès lors que les premiers modèles de OpenAI ont été ouverts au public, la course à l’IA s’est lancée. Rappelez-vous, nous avons eu : GPT 2.0, LLama, Gemini, phi, granite, vicuna, tous ces modèles sont sortis d’un coup et n’importe qui pouvait échanger avec.

C’était amusant. Voici une de mes toutes premières conversations avec une IA : https://chatgpt.com/share/67d5783c-fb8c-800d-93b1-25f94f1dd066. À l’époque, j’étais super impressionné par ses capacités. Je me suis même procuré un abonnement à ChatGPT et je m’en suis servi pour m’aider à coder toute une architecture pour faire mon tout premier talk à Zenika 9 10, et j’ai même publié un article de blog sur ses forces et faiblesses en tant qu’assistant de code 11.

Comme tout le monde, j’étais content. Mistral levait un milliard, OpenAI divisait le prix de ses modèles par deux, les développeurs allaient enfin être remplacés par des robots. Tout ne peut que bien se passer.

Mais on m’a appris à me méfier des choses trop faciles. Comme l’a dit le personnage du figaro, les flateries ne peuvent exister sans critique. Et dans l’univers de l’IA, il existe très peu de big players qui critiquent.

Voici les choses qui m’embêtent.

Au pessimisme instruit

Ma sœur, qui est graphiste, avait une vision très négative de la génération d’images par IA. Quid des droits d’auteurs ? Quid du tracing, ou plagiat ? Comment les artistes vont iels vivre si leur travail peut devenir plagié par n’importe qui ?

Autre problème. Mon ex-amoureuse 12, qui se sentait très inquiète pour son avenir. À quoi cela sert-il d’être journaliste si une IA peut tout écrire ? Comment vivre de la rédaction dans ce domaine ?

Encore d’autres problèmes. Quid de l’impact climatique et environnemental de l’apprentissage en masse, l’impact humain de payer au lancer pierre des personnes pour faire de l’apprentissage supervisé. Et pourquoi OpenAI ne publie pas ses modèles d’IA ? Tous ces questionnements, tous ces doutes. Face à l’incompréhension, je suis tombé dans la technophobie de l’intelligence artificielle, et je ne m’en suis presque pas servi pendant toute une année.

Dernièrement, j’ai réactivé divers services d’IA pour m’aider à coder et la technologie est encore balbutiante à mon regard. Oui, c’est un assistant utile, mais s’il coûtait le réel prix de ses investissements et de la recherche, je ne suis pas sûr de sa rentabilité.

J’en parle d’ailleurs dans mon article sur bolt. À ce moment-là, j’étais très content. Mais ensuite je me suis rendu compte que le prix réel de la technologie ne peut qu’augmenter, et que je ne devrais pas renforcer ma dépendance.

Pour l’expliquer différemment, vous pouvez acheter une Ferrari pour aller au travail. Mais la Ferrari coûte cher en essence (je crois ?), tout le monde voudra vous la taper et l’assurance vous coûtera une blinde. Autant investir dans un vélo moche qui fera aussi bien le travail.

Je prétends que l’IA au code est une Ferrari qui de temps en temps prend feu. C’est très sympa, mais le jeu n’en vaut pas la chandelle.

Je vous invite à lire cet excellent article de Molly White : “AI isn’t useless. But is it worth it ?”. Il reflète très bien ma pensée. Oui, on peut faire des choses incroyables avec, mais peut-être qu’on peut le faire différemment, et parfois, on ne devrait pas le faire tout court.

Et cela m’amène au titre de cet article : “Science sans conscience n’est que ruine de l’âme”, de Rabelais.

Avons-nous autant besoin d’apprendre à des IAs absolument tout et n’importe quoi ?

Tout est gâché

On ne devrait pas, car je trouve que la technologie de génération de tout et n’importe quoi a tout gâché.

Nous avons des industries qui poussent très massivement pour la banalisation de l’IA partout, dans nos emails, dans notre rédaction, dans nos moteurs de recherche. Nous avons le patron de Nvidia qui raconte comment l’IA va changer le monde. Et les journalistes, plutôt que de relever les incohérances de discours, les intérêts qu’ont ces acteurs à vendre de l’IA, ou juste à critiquer la réalité des solutions, se contentent de répéter aveuglément comme des publicitaires que le monde changera en mieux grâce à l’IA.

Aujourd’hui, l’IA dans la vie quotidienne c’est :

  • Des commentaires YouTube générés par des IAs qui redirigent vers des sites pornographiques bien violents
  • Un plagiat extrêmement massif et irrespectueux de tous les artistes. Regardez comment Miyazaki est massacré par n’importe qui, sans même se demander l’utilité de la chose
  • Une quantité de faux livres, fausses vidéos, faux messages, faux tout. Mais c’est comme de la chirurgie plastique : c’est peut-être plus joli, mais ça se voit tout de suite que c’est artificiel, sauf pour tous les débiles qui dorment les yeux ouverts 13
  • Des sites remplis de savoirs et de connaissances qui crèvent à cause de data crawlers qui stressent inutilement les serveurs

La seule chose qui n’était pas artificielle, c’était découvrir, c’était lire, c’était apprendre. Et maintenant, des faux sentients se baladent sur les internets et gâchent ce qui nous restait : notre parole.

Je ne vous dis pas la haine que j’ai de découvrir qu’un message que je reçois qui paraissait bien pensé est en fait écrit par IA… La haine que j’ai de découvrir qu’une belle image est en fait générée par IA.

C’est dégoûtant, ça m’écœure. Je pensais être tolérant, mais là ça dépasse ma limite. Et vous devriez avoir honte de ne pas dire explicitement que ce que vous faites est généré par IA.

Peut-être déjà la fin ?

Il y a quelque chose d’assez ironique qui pourrait sauver internet : le capitalisme.

Toute cette bulle d’intelligence artificielle pourrait, (et d’avis personnel va), éclater 14. Et peut-être que dans 5 ans, nous parlerons autant d’IA générative que d’imprimantes 3D aujourd’hui.

Un peu comme dans le film Her, il n’est pas impossible, non pas existentiellement, mais commercialement que toutes ces IAs se suicident : elles ne sont pas rentables, elles n’ont pas de business plan.

Mon avis personnel, c’est que seuls les ingénieur·es en informatique ont de réels bénéficies d’utilisation d’une IA. Peut-être parce que ce sont les end-users les plus proches de la technologie, peut-être parce que nous les développeuses et les développeurs avons le plus les moyens d’avoir des feedbacks immédiaux sur nos actions.

Peut-être que d’autres domaines de l’ingéniérie vont réussir à intégrer ces solutions dans leur quotidien, mais cela sera aussi anecdotique que le trombonne de Microsoft Word (toujours de mon avis personnel).

Mais pour le reste du monde, un suicide des IAs ne changera rien. À part peut-être pour nos parents et grands-parents qui auront moins de vidéos de chats faisant des trucs impossibles. Mais le monde est inventif, nous reviendrons à la torture d’animaux comme avant 15 !

Petite analogie : la course à l’IA est analogue à la course spatiale des années 50/60. Des milliards investis pour des technologies qui ont réellement tardé à devenir rentables. Oui, nous avons des GPS, non, nous ne savons plus aller sur la Lune.

Peut-être que plus aucune entreprise ne voudra investir les milliards de cash dans des data centers et des données massives pour améliorer les modèles existants. Peut-être que l’IA restera bloquée à l’état de générateurs de textes et d’actions tantôt intelligents, tantôt catastrophiques.

Peut-être que le monde entier continuera de tenter d’entraîner des IAs en espérant obtenir des résultats différents, avant de douloureusement comprendre par des explosions de bulles que cela n’est pas possible.

Peut-être que je me trompe totalement et que nous avons déjà toute la technologie qui permet de créer les fameuses “AGI”, les IA qui seront autonomes pour tout réaliser.

Je ne sais pas.

C’est à ce moment charnier pour notre société de choisir si nous voulons, ou non, vivre avec des IAs. Avec tous ses avantages, tous ses inconvénients. Je pense que c’est le moment à toutes et à tous de se poser la question, si c’est le futur dans lequel on veut vivre.

Quel avenir pour l’humanité et l’IA ?

On oublie trop l’utilisateur principal dans cette course à l’IA : l’humanité.

Je pense sincèrement que la bulle IA s’en sortirait en posant la question du “pourquoi” avant le “comment”. Comme la cryptomonnaie, l’IA cherche son pourquoi, mais lève déjà des milliards d’euros et de dollars. Nous voyons des financements jamais vus alors que la majorité du monde se casse les dents.

Je trouve cela totalement irresponsable de la part de si grandes entreprises comme OpenAI d’ouvrir de si grandes boîtes de Pandore avec leurs LLMs. Oui, ils commencent à devenir incroyables. Mais pouvons-nous au moins réfléchir de façon systémique 16 à l’impact de ces outils ?

J’aimerais que ces milliards investis servent à instruire les gens sur l’utilité de la technologie, les limites et les faiblesses. J’aimerais qu’on arrête d’accepter l’idée de remplacer des journalistes, des musiciens, des peintres par des IAs. J’aimerais qu’on arrête de faire confiance à une énième entreprise qui promet des choses irréalistes au détriment de nos libertés et de notre souveraineté.

J’aimerais qu’on oublie l’IA et qu’on fasse un vrai travail de recherche bénéfique pour le monde. Que ce soit pour l’éducation, l’amélioration des conditions de vie et de travail, la recherche…

Je ne suis pas pour une interdiction, juste pour qu’on réfléchisse avant d’utiliser n’importe quoi. Qu’on applique le principe de précaution, qu’on apprenne à renoncer à certaines choses, qu’on apprenne à apprendre.

Je ne pense pas que nous ayons besoins d’une IA pour rendre le monde meilleur, car je suis persuadé que nous avons déjà tout pour créer notre monde utopique.


Footnotes

  1. Je vais principalement parler d’IA générative dans tout l’article.

  2. https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/

  3. https://bsky.app/profile/leniddepie.bsky.social/post/3lfwzvomva22x

  4. GPU c’est un processeur très doué en calcul vidéo et en IA pour faire simple.

  5. Techniquement, qui influe le choix d’un token, qui est la représentation abstraite d’un mot pour un LLM. Par exemple, “token” pourrait être composé de “tok” et “en”…

  6. AlphaGo mastered the ancient game of Go, defeated a Go world champion, and inspired a new era of AI systems. :(https://deepmind.google/research/breakthroughs/alphago/)

  7. AlphaStar: Mastering the real-time strategy game StarCraft II : https://deepmind.google/discover/blog/alphastar-mastering-the-real-time-strategy-game-starcraft-ii/

  8. Vous remarquerez que c’est le troisième lien de Google que je publie sur la recherche en IA, il se trouve qu’ils ont tellement contribués que je suis gêné de les citer autant sachant qu’il y a énormément de décisions politiques dont je ne suis pas d’accord avec Google : https://deepmind.google/discover/blog/discovering-novel-algorithms-with-alphatensor/

  9. Transpilation, comment coder dans un langage quand on ne connaît pas ce langage : https://youtu.be/0GqW6x9yV2o?feature=shared

  10. Le code source est présent ici

  11. 3 techniques pour mieux dévelopepr en JavaScript avec ChatGPT

  12. Jamais une IA n’inventera la planète donut ça s’est sûr…

  13. C’est gratuit, quelques techniques pour détecter de la chirurgie esthétique : souvent ce sont les lèvres qui sont modifiées en premier. Regardez si elles gonflent de façon non uniforme avec le temps, et surtout cherchez un “gonflement” sous les lèvres. C’est un signe que le botox est en train de se déplacer dans le corps et se met au mauvais endroit. Une petite source ne fait jamais du mal : https://youtu.be/Su0Az7hp9x4?feature=shared

  14. https://www.wheresyoured.at/power-cut/

  15. https://www.pbs.org/newshour/science/whimsical-wildlife-photography-isnt-seems

  16. Un très bon talk sur la systémie : Résoudre la complexité grâce au pouvoir holistique des Na’vi : Clémence Piteau

S'abonner à ma newsletter

Inscrivez-vous pour recevoir tous les articles de mon blog.

Vous pouvez vous désinscrire à tout moment. Pour plus de détails, vous pouvez me contacter à hello@nirinarabeson.fr.