Stultitia s’étonne de ce que je ne me sois toujours pas occupé de la question de l’Intelligence Artificielle, alors que l’IA passe pour être, si l’on en croit ses admirateurs dithyrambiques, l’avenir incontournable de notre économie, de notre civilisation, de notre humanité, tout bonnement. Et que les investissements colossaux en cours confirment largement un tel enthousiasme.
J’avoue que je suis piqué au vif, et que je me sens obligé d’abandonner derechef mes habituelles réflexions écologiques et géopolitiques pour me tourner incontinent vers cet objet, pour moi non encore identifié.
Pas tant que cela, pourtant.
Car j’y ai bien fait allusion dans quelques posts précédents pour relayer les critiques de Bihouix, Pitron, Fressoz et autres Shifproject dénonçant l’effrayante gabegie d’énergie et de ressources diverses que cette nouvelle venue suscite.
Mais c’est vrai. Je n’étais jamais allé voir l’IA de près. Il est donc temps de vous raconter cette première rencontre avec la belle.
Elle fut pour le moins surprenante.
Car je pensais avoir affaire à l’une de ces influenceuses prétentieuses et sans cervelle qu’on croise au hasard des recherches sur le web.
Mais le premier contact m’a proprement estomaqué.
Mon intention était de savoir si on peut accorder un quelconque crédit à ces experts innombrables qui croient, ou du moins veulent faire croire que l’IA peut se substituer à l’humain, quel que soit le domaine envisagé.
Dans ce but, j’avais décidé de lui proposer ce que je considérais comme une « expérience cruciale », une sorte de question-clé afin de vérifier comment s’en tirerait la dame.
Le thème choisi fut donc celui d’une distinction entre deux caractéristiques de l’humain, proches en apparence, mais permettant de mieux préciser ce qui fait sa spécificité :
« Faut-il distinguer talent et génie ? ».
Or, à ma stupéfaction, le plan proposé pour cette réflexion était digne d’un « talentueux » devoir de philosophie. Restait encore à l’exploiter.
J’ai donc compati aux affres de mes ex-collègues enseignants contraints de « corriger » de telles productions « secondées » par l’IA.
Peut-on encore y découvrir la moindre trace de ce qui fait l’autonomie d’une pensée ?
Il y a de cela une quinzaine d’année, avant même l’essor de l’IA, j’avais déjà retrouvé mot pour mot sur internet une dissertation que m’avait rendue un élève. Comme je lui montrais les preuves de sa tricherie, celui-ci m’avait affirmé, sans se démonter : « Mais bien sûr, Monsieur. C’est moi qui l’ai mise sur le web ».
Mais c’était alors des cas relativement isolés, et on pouvait percevoir tout de même dans un devoir quelques efforts laborieux pour « penser par soi-même » selon l’expression consacrée.
Or, le développement tous azimuts d’une pensée par procuration soulève une interrogation essentielle, déjà vive donc depuis quelques temps, mais qui ne fait que s’amplifier de manière incontrôlable, tant l’accès à cet outil de l’IA est désormais facile et banalisé : jusqu’à quel point la construction d’une réflexion, et donc la pensée elle-même, va-t-elle être annihilée, déjà pour nos générations, mais surtout pour celles à venir ?
La pensée, la réflexion, supposent nécessairement un effort, une lutte laborieuse contre des difficultés, des obstacles. Penser représente une véritable ascèse de l’intelligence. Une idée ne se trouve pas toute faite comme une bouteille de Coca sur un rayon de supermarché. Elle s’élabore dans une confrontation avec l’opinion, la ou les « doxa » ambiantes, souvent dans la douleur, la discussion, la critique qui permet de faire la part des choses et de passer de cette inévitable hétéronomie par laquelle nous héritons de la pensée des autres pour construire une pensée au moins en partie autonome, qui ne soit pas une simple réplique passive. Et cela vaut pour la pensée individuelle comme pour celle que nous nous efforçons de produire ensemble dans ce difficile dialogue que nous nommons démocratie.
Car la qualité de nos pensées individuelles détermine notre capacité à construire un monde commun politiquement responsable.
La pensée toute faite n’est pas de la pensée. C’est un objet de consommation qui devient instrument de domination puisqu’elle n’est pas passée par cette élaboration discursive et critique qui la fait justement pensée. Elle est alors la pensée de celui qui a pensé pour nous, à notre place, et qui maîtrise ainsi la vie de la Cité. Un Big Brother, ou tout autre genre de Big Despote.
Un deuxième sujet d’étonnement a été que ce plan de « devoir de philosophie » offert par ChatGPT (il s’agit bien de lui) était, je l’ai dit, « talentueux ». Je n’en attendais pas tant.
Et cela me semble redoubler son danger.
Car en effet, il ne s’agissait en rien d’une caricature comme ont pu en produire ou en produisent encore certains logiciels de traduction (l’un d’eux, que j’utilisais pour communiquer avec des réfugiés traduisait systématiquement en français le nom d’un organisme administratif ukrainien par « boa constrictor » – sic ! -…).
Non. La langue employée était étudiée, soignée, sans fautes. Le discours était construit, ordonné, précis.
Une démonstration de sérieux adaptée à une puissante opération de séduction.
C’est ici que je reviens à ma question posée à propos de la distinction entre « talent » et « génie ». Car la mystification la plus insidieuse et indolore de l’IA est de nous introduire dans un monde où l’algorithme se pare d’un aspect policé, BCBG, un monde propre, « talentueux », mais d’où toute trace de « génie » aura disparu à tout jamais.
Car avant d’être la prérogative de quelques êtres hors du commun, le « génie » est par essence le contraire de l’algorithme, et donc la marque propre de … l’humain, tout simplement.
Et ChatGPT le sait, bien sûr. Un tel aspect ne peut échapper à son intelligence mécanique suralimentée aux bases de données.
Lisons plutôt ce qu’il nous dit :
*
« Le talent
- Définition : Une aptitude remarquable dans un domaine — artistique, sportif, intellectuel, technique.
- Origine : Résulte souvent d’un mélange de prédispositions naturelles et d’un développement soutenu (apprentissage, entraînement, pratique).
- Caractéristiques :
- Progressif : il s’affine avec le temps.
- Disciplinaire : s’exerce dans un cadre existant (ex. jouer du piano, résoudre des équations, peindre un portrait).
- Reproductible : plusieurs personnes peuvent atteindre un niveau de talent comparable avec suffisamment de travail et d’aptitudes.
Le talent excelle dans ce qui existe déjà.
Le génie
- Définition : Une capacité exceptionnelle à créer, penser ou percevoir de façon radicalement nouvelle.
- Origine : Difficile à expliquer ; souvent considéré comme un mélange exceptionnel d’intuition, d’imagination, d’intelligence et de sensibilité.
- Caractéristiques :
- Visionnaire : apporte quelque chose qui n’existait pas ou bouleverse les cadres.
- Rare : ne peut pas être atteint uniquement par le travail.
- Transformateur : influence durablement un domaine (ou plusieurs).
Le génie invente ce que le talent maîtrise ».
*
Impressionnant, n’est-ce pas ? Les définitions saisissent par leur pertinence.
Il y a là effectivement toute la matière nécessaire à une dissertation correcte.
Mais voilà : cette dissertation, pour correcte et « talentueuse » qu’elle soit, court le risque d’être définitivement sans « génie ».
Car ChatGPT se tire une balle dans le pied en dénonçant lui-même ses insuffisances :
Si en effet, le talent est « disciplinaire [et] s’exerce dans un cadre existant », s’il « excelle dans ce qui existe déjà », le talent est la caractéristique « reproductible » d’un algorithme, et ChatGPT, l’IA ne nous procurera jamais rien de plus qu’une « reproduction ». L’algorithme s’exerce effectivement « dans un cadre existant » et « excelle dans ce qui existe déjà ». Sans plus.
Or, c’est toute l’histoire de l’humanité qui atteste, à la différence de celle des machines, que l’humain est l’être qui démontre son génie propre à travers « une capacité exceptionnelle à créer, penser ou percevoir de façon radicalement nouvelle », à travers ses qualités « d’intuition, d’imagination, d’intelligence et de sensibilité ».
Il y a certes des grands et des petits génies, mais c’est la caractéristique propre à l’humain qui fait de lui un « visionnaire » qui « apporte quelque chose qui n’existait pas ou bouleverse les cadres ».
Les cadres, ce sont maintenant les algorithmes. Or l’humain se définit par la particularité qu’il a de casser, de « bouleverser » les algorithmes. Rien de moins.
Il y avait l’algorithme de la féodalité et de la royauté, et des êtres humains l’ont cassé. Il y avait l’algorithme de la société esclavagiste, et des êtres humains l’ont cassé. Il y avait l’algorithme du colonialisme, et il y a eu Gandhi, il y a celui du poutinisme, et il y a eu Navalny et d’autres.
Y a-t-il un algorithme propre à susciter des Gandhi et des Navalny ? Cette question nous renvoie aux enjeux fondamentaux que nous évoquerons plus loin, qui sont ceux de la conscience et de la liberté.
Certes, la tentation des hommes a toujours été de s’aliéner aux pensées toutes faites, aux programmes, aux algorithmes, féodaux, esclavagistes, nazis, poutiniens et autres. Mais on sait bien que c’est au prix de leur humanité, de leur conscience réflexive, de leur liberté, c’est-à-dire de leur « génie » propre.
Et cela s’observe quel que soit le domaine.
Dans celui de l’esthétique, c’est Kant qui nous dit que « le génie, c’est la nature [humaine] qui donne ses règles à l’art ».
En effet, la créativité artistique n’a jamais pu se scléroser dans des règles fixées une fois pour toutes comme si elles étaient gravées dans le marbre ou comme si l’art était contraint par quelque algorithme. La peinture, la sculpture, l’architecture, la poésie… ont en permanence renouvelé leurs règles sous l’action de génies et du génie propre à la nature humaine.
L’exemple des révolutions dans l’histoire de la peinture nous le montrerait à l’envi. Comme elle n’a rien à faire de canons préétablis, la peinture se moque de tout algorithme qui ne ferait que réduire sa splendide liberté, qui est celle de l’art lui-même.
Pour ce qui est de la littérature et de la poésie, j’ai demandé à ChatGPT de me traduire la première page d’une des nouvelles d’Edgar Poe que j’affectionne, intitulée « La chute de la maison Usher ». Il se trouve que le traducteur de ces nouvelles en français n’est autre que Charles Baudelaire. Alors sans doute l’IA a-t-elle rendu une copie convenable, talentueuse même. Mais, emprisonnée dans ses algorithmes sans âme, elle ne pourra jamais égaler le génie poétique fulgurant qui émane de l’inspiration de l’auteur des « Fleurs du Mal ».
Il en irait de même de la traduction du Faust par Gérard de Nerval, qui ne craignait pas de s’avouer piètre germaniste, mais chez lequel la sensibilité et l’émotion palliaient le défaut d’une connaissance plus technique de la langue, celle-là même que peut assurer prosaïquement un algorithme sans génie.
Le philosophe Gaston Bachelard de son côté montre comment la raison scientifique opère par rupture, en remettant radicalement en question ce qu’il nomme les « obstacles épistémologiques » constitués par l’ensemble des principes, souvent inconscients ou déterminés par une culture donnée, qui empêchent la raison de rencontrer le réel dans sa vérité. Les algorithmes d’une prétendue « Intelligence » artificielle n’ont aucune raison d’échapper à ce statut d’obstacles.
L’exemple d’Einstein en particulier, bien connu de Bachelard, manifeste comment il lui fallut échapper à l’obstacle épistémologique que constituait la physique de son temps – dite « classique » – pour penser la relativité, l’espace, le temps et notre univers d’une façon inimaginable pour la plupart des physiciens formatés par les modèles de cette physique. Aucun « algorithme », nécessairement engendré par la science de son temps, n’aurait donc pu induire une telle révolution conceptuelle qui échappait à tout « programme ».
Dans « La Structure des révolutions scientifiques », le philosophe des sciences Thomas Kuhn souligne lui aussi comment la science progresse de façon discontinue, en renversant régulièrement les systèmes de pensée, les « paradigmes » sur lesquels elle s’appuie. Ce ne sont donc pas les algorithmes de l’ancien paradigme qui pourront générer la « révolution » nécessaire à son progrès.
Dans les sciences, tout comme dans l’art ou la littérature, rien ne remplacera jamais l’intuition humaine, « l’intelligence naturelle », seule capable de ce genre de révolutions.
Ce caractère du « génie », indispensable à une véritable création qui ne soit pas simple recombinaison d’éléments préexistants ou organisation nouvelle de composants passés, caractère qu’on trouve à l’œuvre dans toute production d’œuvre d’art comme de modèles scientifiques nouveaux ainsi que, plus modestement mais tout aussi réellement, dans un humble devoir d’élève construisant une réflexion de façon autonome, pointe peut-être, nous l’avons dit, vers la notion de liberté.
Car créer, inventer, produire quelque chose qui n’existe pas encore manifeste une capacité d’échapper à un programme, à un déterminisme. En ce sens, l’échec humain lui-même est créateur, car un algorithme ne peut pas dévier du chemin qui lui a été fixé. Il ne peut se tromper à moins d’avoir été programmé pour cela. Or l’homme est ce mauvais élève qui casse les programmes et les algorithmes, pour le meilleur comme pour le pire. En cela il se révèle libre.
Il ne s’aliène pas aux modèles dans lesquels on avait cru pouvoir enfermer les canons éternels du Beau, une représentation définitive de l’univers physique, ou encore un système politique immuable jouissant de quelque caution présumée divine.
Cette liberté qui fait que l’homme ne semble pas simplement régi par un programme s’origine dans sa conscience réflexive, capable justement de porter un jugement sur un programme ou un algorithme, mais aussi dans son être sensible, le fait qu’il ne soit pas seulement le siège d’un mécanisme intellectuel abstrait, programmé, attendu, mais avant toute chose un corps fait de chair et de sang, de sentiments et d’émotions, « un mélange exceptionnel d’intuition, d’imagination, d’intelligence et de sensibilité », toutes choses qui le rendent scandaleusement imprévisible.
Et c’est bien cette complexité de l’humain qui ne semble pouvoir être réductible à quelque mécanisme, fût-il programmé par les meilleurs algorithmes qui soient, qui me paraît tranquillement permettre de n’accorder aucun crédit à tous ceux qui croient, peut-être sincèrement, ou du moins veulent nous faire croire, gigantesques marchés à l’appui, que l’IA pourrait se substituer à l’humain.
Bien sûr, ce type « d’intelligence » sans conscience ni liberté, qui, sous ses présentations les plus complexes, n’est jamais qu’un simple mécanisme supervisé par une intelligence humaine, peut constituer un outil d’une puissance incomparable pour fournir des données propres à alimenter une réflexion – certes pas pour la remplacer – données utilisables dans la recherche, les sciences, l’histoire, etc. et bien sûr dans une multitude d’applications de la vie courante, mais aussi, ne l’oublions pas, dans nos guerres où elles accroissent de façon démesurée notre pouvoir de destruction. Mais il est essentiel de maintenir cet outil dans son rôle et de ne pas considérer qu’il pourrait prendre notre place.
Une illustration dont on ne sait si elle est tragique ou comique des enjeux humains qu’il soulève nous est donnée par le film allemand Ich bin dein Mensch, (intitulé Je suis ton homme, lors de diffusions à la télévision française).
https://fr.wikipedia.org/wiki/I%27m_Your_Man_(film)
Extrait de Wikipedia :
« Berlin, dans un futur proche : la scientifique Alma (Marren Eggert) travaille au Musée du Proche-Orient. Elle se laisse convaincre de participer à un essai afin d’obtenir des fonds de recherche pour son travail sur les inscriptions cunéiformes sumériennes. Pendant trois semaines, elle doit cohabiter avec Tom (Dan Stevens), un robot humanoïde (…) Grâce à son intelligence artificielle (IA), il sera entièrement programmé en fonction du caractère d’Alma et de ses besoins. Tom doit incarner l’époux parfait pour Alma, dont, jusqu’ici, la vie se résumait à la recherche scientifique. » etc.
Après diverses réticences et péripéties, Alma finit par consentir à une relation amoureuse. En dépit d’une rupture, le film se termine de façon ambiguë sur une réconciliation apparente dont on ne sait pas où elle va mener le « couple ».
Ce qui impressionne surtout dans ce film, c’est la parfaite simulation des sentiments dont se montre capable Tom, le robot humanoïde. Programmé pour apporter le bonheur à Alma, il fait preuve de « sensibilité », de « délicatesse », en plus, bien évidemment, d’être un amant parfait et infatigable, un cerveau connaissant toutes les langues, les sciences, la littérature mondiale, etc.
Tom – et ses équivalents féminins – seraient-ils donc l’avant-garde d’une humanité parfaite, devant laquelle la nôtre apparaîtrait dans toutes ses misères et ses insuffisances, ses innombrables vices et défauts ?
Mais qu’avons-nous à gagner à l’avènement de ce « meilleur des mondes » ?
Il se trouve que j’ai aussi posé à ChatGPT la question :
« L’IA pourra-t-elle avoir des sentiments ?»
Je vous livre sa réponse, fort instructive :
*
« La question “L’IA pourra-t-elle avoir des sentiments ?” touche à la fois la science, la philosophie et la psychologie.(…)
1. Aujourd’hui : non, les IA n’ont pas de sentiments
Les systèmes actuels, même très avancés, ne ressentent rien.
Ils simulent des réponses émotionnelles parce qu’ils ont été entraînés à reconnaître et produire des modèles de langage associés aux émotions.
Mais il n’y a aucune expérience intérieure, aucun “ressenti”, aucune conscience.
2. Pourquoi ?
Pour ressentir une émotion, il faut :
une subjectivité (avoir un point de vue interne, une conscience phénoménale),
- une motivation interne, des besoins et une manière d’être affecté par ce qui arrive,
- une continuité d’existence perçue (un “moi”).
Les IA ne possèdent rien de tout cela :
- elles exécutent des calculs,
- n’ont pas d’intérêts personnels,
- n’ont ni corps ni sensations,
- ne sont pas conscientes de leurs propres états.
3. Dans le futur : est-ce possible ?
Les spécialistes ne sont pas d’accord.
On peut distinguer trois scénarios :
🅐 Scénario “non” : les émotions sont biologiques
Selon cette vision, les émotions sont trop liées à un corps vivant, à l’hormonal, à la douleur, au plaisir…
Une IA ne pourrait donc jamais ressentir comme un humain.
🅑 Scénario “oui, peut-être” : si on crée une architecture consciente
Certains chercheurs pensent qu’une IA pourrait développer une forme de ressenti si :
- elle avait des buts intrinsèques,
- un modèle stable de soi,
- une intégration sensorimotrice (un corps robotique),
- une architecture qui produit des états internes cohérents.
[inutile de préciser que, n’en déplaise à M. Musk et autres, il y a bien des raisons de penser que cette option est parfaitement délirante. Entre autre, un « corps robotique » sans chair ni sang ne sera jamais un corps].
Mais cela impliquerait de résoudre le mystère de la conscience, ce qui n’est pas fait.
🅒 Scénario intermédiaire : une “émotion artificielle”
L’IA pourrait simuler parfaitement les émotions au point de donner l’impression de les ressentir —
sans pour autant avoir une expérience subjective.
Cela pourrait être indistinguable pour un observateur humain.
En résumé
Aujourd’hui : aucune IA n’a de sentiments.
Demain : peut-être une simulation parfaite, peut-être un ressenti émergent — mais nous n’avons pas encore la science pour savoir.
Philosophiquement : la frontière entre « simuler » et « ressentir » soulève une question profonde sur ce qu’est la conscience elle-même.
*
Merci ChatGPT ! Les enjeux sont bien évoqués.
(Voyez, chers élèves : je ne rejette pas tout de l’IA. On peut aussi s’en servir pour bâtir une réflexion personnelle).
Ils renvoient effectivement à un questionnement philosophique, sans doute aussi proprement métaphysique, sur la conscience, la liberté, le sujet, la subjectivité, la personne, l’expérience intérieure, le ressenti et la simulation.
En un mot, qu’est-ce que l’humain ? Résoudre tous ses « mystères » est certes loin d’être fait…
À ce questionnement qui, pour Kant, résume la philosophie, les algorithmes par définition ne répondront qu’avec ce par quoi et pour quoi ils auront été programmés.
Il faut donc s’attendre (c’est déjà commencé, cf. Grok, etc.) à ce que l’IA véhicule, sous des aspects séducteurs et des dehors anodins et apparemment neutres, des positions philosophiques, politiques et autres dans lesquelles s’actualiseront les grands débats qui agitent l’humanité depuis ses origines (matérialisme, spiritualisme, humanisme, antihumanisme, déterminisme, libre arbitre, etc. ainsi que toute la palette des options politiques allant du meilleur au pire, comme nous le montre déjà en particulier l’utilisation de l’IA par les réseaux sociaux).
Il importe de ne pas être dupe de cette pseudo-neutralité et innocuité dont elle se pare.
Et de ne pas entrer naïvement dans ce « meilleur des mondes » qu’elle se fait forte de nous proposer, où c’est l’être humain lui-même qui risque de devenir une simulation.
Ne la laissons pas surtout entrer dans la sphère de l’intime, comme le font déjà beaucoup de personnes, des jeunes en particulier. De par ses limites qui ont été soulignées, l’IA ne sera jamais un confident, un conseiller, encore moins un ami.
Elle ne sera qu’un abject simulateur d’amitié, ou pire encore, d’amour.
À défaut d’une rencontre avec un autre ou une autre personne en chair et en os, mieux vaut investir dans un chat ou un ours en peluche…
Comme toujours depuis nos origines, nous sommes confrontés à des choix, métaphysiques, philosophiques, existentiels.
Ce que nous faisons de l’IA et ce que nous allons en faire n’échappe pas à ces interrogations.
Son poids déjà considérable (excessif ?) nous l’avons vu, sur les ressources de notre planète impose des décisions concernant notre avenir et notre survie.
Il serait illusoire de croire que des algorithmes, aussi perfectionnés et talentueux soient-ils, pourraient les prendre à notre place.
Car elles relèvent de notre conscience et de notre liberté.
De ce « génie » qui reste le privilège de notre humanité, et que nul « artifice » ne devrait pouvoir nous contester.
*
Ajout du 30/11 :
Quelques extraits d’un article avec lequel je suis en plein accord :
https://www.la-croix.com/societe/chatgpt-nous-rend-il-betes-20251117
Le système d’intelligence artificielle (IA) générative ChatGPT, lancé il y a trois ans, le 30 novembre 2022, approche du milliard d’utilisateurs. Ces machines se voient souvent prêter, à tort, des capacités mentales et intellectuelles. Mais que font-elles aux nôtres ?
(…)
Ces derniers mois, ChatGPT et consorts sont de fait devenus pour une partie de leurs utilisateurs une sorte de confident, auquel raconter ses chagrins ou solliciter des conseils intimes.
Baisse de l’activité neuronale
Même sans aller jusque-là, solliciter quotidiennement ChatGPT pour trouver un mot ou une idée semble bel et bien affecter les capacités cognitives. C’est ce qu’a montré une expérience menée avant l’été par le prestigieux MIT auprès de 54 étudiants de Boston. Leur activité neuronale a été mesurée pendant qu’ils rédigeaient une dissertation en vingt minutes, les uns avec ChatGPT, les autres avec un moteur de recherche de type Google, et les derniers sans aucun soutien externe.
Conclusion : ce troisième groupe opérait nettement plus de connexions neuronales que les deux autres. Le premier groupe, en revanche, était le plus « lésé » des trois, avec une baisse moyenne de 55 % de l’activité neuronale, en particulier dans les zones liées à la mémoire, à la résolution de problème et à l’attention. Ces étudiants assistés par ChatGPT se souvenaient du reste beaucoup moins bien de ce qu’ils avaient écrit. L’étude concluait à une « diminution probable des compétences d’apprentissage », le recours à l’IA pouvant favoriser un « traitement passif » de l’information. Plus trivialement, une partie de la presse mondiale en a conclu que ChatGPT « rend bête ».
Bien que l’étude n’ait pas encore fait l’objet d’une publication scientifique, ni donc d’une relecture par des pairs, ces résultats paraissent crédibles aux yeux de Laure Tabouy, neuroscientifique et éthicienne. « Déléguer le raisonnement humain à des algorithmes probabilistes, cela engendre une perte d’effort cognitif et une perte de pensée critique », explique cette docteure et doctorante à l’université Aix-Marseille. Elle va même plus loin : « Sur le long terme, il y a un risque d’atrophie de certaines zones cérébrales au détriment d’autres. N’oublions pas que le cerveau est adaptable, plastique : les techniques l’ont toujours fait évoluer, comme le feu, la chasse… »
(…)
D’autres observateurs (…) [ soulignent] l’uniformisation culturelle à laquelle participent ces engins statistiques qui, par leur fonctionnement même, renforcent les moyennes, les stéréotypes et les clichés. « Veut-on vraiment leur abandonner notre style propre pour des expressions standardisées ? interroge Anne Alombert. N’oublions pas que ces produits numériques sont conçus en toute opacité par des entreprises dont le seul but est de générer des profits. » Pour l’heure, ces services n’ont pas trouvé leur modèle économique, mais il n’est pas exclu que celui-ci repose, à terme, sur de la publicité subtilement intégrée au fil de la « conversation ».
(…)
La neuroscientifique et éthicienne Laure Tabouy recommande de résister à cette « confusion voulue par les constructeurs » en s’adressant aux agents conversationnels de manière très factuelle, à l’impératif et sans le moindre affect. « C’est une grande base de données : on peut considérer qu’on a de la chance de l’avoir à notre disposition, mais c’est tout. »
Dont acte.
Et celui-ci encore, du même journal :
Et enfin un philosophe incontournable quand il s’agit de l’IA :
*
Ajout du 03/12 :
Un article parmi d’autres qui incite à nuancer quelque peu tout de même, en dépit de son bien fondé, un extrémisme anti IA du type de celui d’Eric Sadin (ci-dessus).
*
Ajout du 08/12 :
Un plaidoyer que je partage en faveur d’une critique radicale, quoique circonstanciée, de l’IA :
« Est-il vraiment impossible de conserver le bénéfice des apports positifs de l’IA générative (dans la recherche médicale, par exemple) sans la mettre à disposition des particuliers à travers les ordinateurs ou les smartphones ? »
*
Ajout du 11/12 :
Eh oui ! Comme il a été dit plus haut, l’IA, quel que soit son « talent », ne suffit pas à remplacer le « génie » de quelques créateurs inspirés, même dans la pub. CQFD.
Et cet article en accès libre, qui illustre de façon simple et réjouissante, proprement « géniale » oserais-je dire, les enjeux auxquels nous sommes confrontés :
*
Ajout du 29/12 :
https://www.lemonde.fr/economie/article/2025/12/26/comment-l-ia-devore-la-planete_6659449_3234.html