L'intelligence artificielle – des machines sans âme
Intelligence artificielle
Là, il est dit que Google a créé un système neuronal artificiel – une sorte d’IA – qui contient plus de 540 milliards de paramètres et donc nettement plus que des modèles comparables, tels que GPT-3 d’OpenAI ou Gopher, qui a été développé par la filiale de Google DeepMind.
De ce fait, PALM serait supérieur à ses concurrents dans les tests de questions-réponses, dans la complétion de phrases ou dans les tâches de compréhension de lecture. Dans les tests individuels, on dit même que l’IA est au niveau de compréhension de la langue d’un enfant de ans enfant.
Aljoscha Burchardt du Centre de recherche allemand sur l’intelligence artificielle explique que cela fonctionne via un modèle statistique dans lequel les systèmes apprennent à prédire le mot suivant. Pour ce faire, ils sont entraînés avec une sorte de texte vide jusqu’à ce qu’ils soient le plus précis possible.
PALM s’appuie également sur ces méthodes et n’est donc pas techniquement différent des autres modèles de langage, seulement qu’il y a beaucoup plus de capacités ici. Plus de paramètres sont alimentés avec plus de données et, par conséquent, le système évolue davantage.
Mais il n’est pas si facile de répondre à la question de savoir si l’augmentation promise par Google est réellement d’une nouvelle qualité, dit Burchardt. Parce que tout le domaine est encore si nouveau qu’il n’existe actuellement aucune procédure de test pour vérifier objectivement les modèles de langage.
Et même si les réalisations de cette intelligence artificielle sont impressionnantes: on ne sait toujours pas quel problème elles peuvent résoudre, pense du moins David Schlangen de l’Université de Potsdam:
« Ce qui est intéressant dans toute cette ligne de recherche, c’est que les applications ne sont pas encore très claires. C’est encore un peu un jeu intérieur en ce moment, avec un groupe qui essaie d’être meilleur que l’autre. »
Donc le tout est encore au niveau de la recherche fondamentale. Certes, beaucoup est imaginable. Traductions automatiques, par exemple. Mais il y a aussi des questions conceptuelles ouvertes. À savoir, qu’est-ce que tu veux même qu’on en fasse?
Serait-il judicieux d’utiliser le modèle dans la pratique pour obtenir des réponses aux questions. Contrairement aux machines, les gens peuvent justifier leurs réponses. Lorsqu’une machine est interrogée, elle calcule simplement sa réponse. Ces réponses peuvent-elles être considérées comme significatives?
David Schlangen de l’Université de Potsdam y porte un regard critique. En utilisant la recherche Google comme exemple, il explique que les modèles de langage comme PALM interprètent mal les questions et se trompent un certain pourcentage du temps. En même temps, ils sont incapables de montrer quand ils sont en sécurité et quand ils ne font que deviner. Par conséquent, le pas vers l’applicabilité réelle n’est pas aussi évident qu’il y paraît souvent dans les communiqués de presse.
C’est d’autant plus étonnant que dans le cadre de l’IA, des comparaisons avec des personnes réelles sont répétées. Si vous prenez les 540 milliards de paramètres que PALM a et regardez un paramètre comme un neurone, alors le cerveau humain a entre 60 et 90 milliards de neurones. En même temps, cependant, il peut faire des choses beaucoup plus complexes que ces modèles.
L’ordinateur est loin d’être aussi efficace que le cerveau humain. Néanmoins, il y a cette comparaison. Cela est dû en partie aux soi-disant propriétés émergentes qui surviennent de manière imprévue. Que l’IA fait quelque chose qui n’est pas planifié et qui n’est pas compréhensible.
L’envie humaine de se comparer à la machine existe depuis des siècles. Le psychanalyste et philosophe Daniel Strassberg a traité de ce phénomène dans son livre « Machines Spectaculaires ».
« Depuis qu’il y a une sorte d’autoréflexion en Occident, il cherche un objet de comparaison qui le distingue de toutes les autres espèces. C’était l’animal. Au cours des dernières décennies, la machine semble avoir remplacé l’animal dans ce film, où vous recherchez la proposition de vente unique », explique-t-il.
Les gens veulent savoir: qu’est-ce qui me rend unique? D’une part, il y a des raisons juridiques à cette question. C’est une question de démarcation. Vous pouvez abattre des animaux, mais pas des personnes. En ce qui concerne la machine, il y a aussi une discussion : quelle responsabilité lui est-elle attribuée ? Par exemple dans les voitures autonomes.
Le deuxième point : Une caractéristique qui distingue les humains des animaux est que les animaux n’ont pas d’âme. Et l’âme chez l’homme représente la connexion au divin. L’homme veut cela pour lui-même. Et aussi avec une vue sur la machine, dit Strassberg :
« L’antithèse de la machine est devenue l’âme. La machine est considérée comme sans âme. C’est une technologie sans âme, disent-ils. Et nous voulons être les seuls à avoir une âme et à avoir accès à ce transcendant. »
Il existe également d’autres particularités liées à la machine, précise Daniel Strassberg. Il décrit trois différences par rapport à la comparaison animale : D’une part, la machine est fabriquée par l’homme. La deuxième différence est que les humains construisent des machines qui sont toujours meilleures qu’eux dans au moins une caractéristique. La troisième différence, et la plus importante, est que les machines sont une «cible mouvante»:
« Dès que vous attribuez une différence à la machine et que vous dites que l’homme a un langage et que la machine n’en a pas, les ingénieurs viennent construire exactement cette différence dans la machine. Donc quelque chose change constamment. Il n’y a pas de différence fixe. Je pense que c’est là que réside la vraie peur: que nous ne pouvons jamais être sûrs qu’il y a quelque chose de fixe que la machine n’a pas. »
Mais qu’est-ce que cela signifie pour l’intelligence artificielle, sur laquelle on a beaucoup spéculé ces dernières années ? Daniel Strassberg considère cette comparaison entre l’homme et la machine comme une idée absurde. Daniel Schlangen de l’Université de Potsdam a une vision similaire du modèle de langage Google PALM – en particulier la comparaison avec l’intelligence d’un -ans enfant:
« Ces modèles ne communiquent pas. Au final, ils n’ont rien à dire. C’est aussi assez impressionnant qu’ils produisent souvent ce qui ressemble à une bonne réponse à ces tests. Mais un enfant de ans fait non seulement des tests d’intelligence, mais peut aussi faire des choses avec le langage si le test est terminé ou demander quelque chose avec le langage ou faire des choses très complexes. Et ce n’est pas du tout à la portée de ces modèles. »