Votre navigateur est obsolète. Veuillez le mettre à jour avec la dernière version ou passer à un autre navigateur comme ChromeSafariFirefox ou Edge pour éviter les failles de sécurité et garantir les meilleures performances possibles.

Passer au contenu principal

Sam Altman, vedette de l’IA à Davos
«Les craintes sur l’IA sont fondées mais exagérées»

Sam Altman, le CEO de OpenAI (ChatGPT), en vedette au WEF,  pense que l’IA est loin d’être parfaite et qu’il faut apprendre à la maîtriser.
Abonnez-vous dès maintenant et profitez de la fonction de lecture audio.
BotTalk

Au WEF (Forum économique mondial), l’intelligence artificielle (IA) est la vedette élue: c’est bien la révolution majeure du XXIe siècle, plus importante que l’invention de l’internet. Elle touchera tous les secteurs de la vie, mais on ne sait toujours pas quels seront ses effets sur l’ensemble des activités humaines! À Davos, on attendait avec impatience l’avis de la star du moment, Sam Altman, le directeur général d’OpenAI, la société connue pour avoir développé l’algorithme ChatGPT, ce robot conversationnel.

Dans un panel dirigé par le journaliste bien connu Fareed Zakaria, l’enfant prodige Altman s’est montré d’un calme olympien face à toutes les tentatives voulant le pousser dans l’immense inquiétude que fait naître ce nouvel outil technologique. Pour celui qui avoue ne pas être un «ingénieur particulièrement doué», les peurs sont probablement exagérées si l’on ne fait pas l’effort de comprendre comment l’IA fonctionne.

Elle est loin d’être parfaite, très loin de pouvoir supplanter l’humain. Simplement, il faut apprendre à l’utiliser. «Et je suis convaincu que les gens en comprennent de mieux en mieux les limites.» À ses yeux, il faut faire preuve d’humilité. Certes, on ne sait pas où l’on va exactement, ce qui sera possible, mais «les avantages sont tels que nous devons avancer». Et apprendre avec prudence à évoluer dans ce nouvel environnement relationnel entre les humains et les machines.

«L’être humain accepte les erreurs des êtres humains, mais pas celles des machines.»

Sam Altman, CEO OpenAI

Interrogé sur l’échec relatif des voitures autonomes en raison du manque de confiance des utilisateurs, Sam Altman aura cette réponse simple: «L’être humain accepte les erreurs des êtres humains, mais pas celles des machines.» Avant que nous puissions faire confiance à l’IA embarquée dans une voiture, il faudra probablement qu’elle soit «100 fois plus performante que l’automobiliste» et capable de nous expliquer comment elle raisonne. «Du reste, c’est comme pour les relations humaines, je vous fais confiance si je comprends quels sont vos arguments et méthodes. Le cerveau est aussi une boîte noire.»

Si, dans certains autres panels, Sam Altman s’est montré très circonspect sur la volonté de réguler a priori l’IA, en plénière il laisse entendre être prêt à en discuter, mais «pas après pas», car nous naviguons à vue. En clair, comment réguler quand on ne sait pas ce qui va se passer? Les scientifiques ne sont pas tous alignés sur cette position, à témoin l’initiative des deux Écoles polytechniques fédérales annoncée au WEF avec des partenaires américains visant à inclure des «lignes rouges» dans le développement des algorithmes.

Les entreprises avancent à tâtons

Les entreprises? Elles «avancent aussi à tâtons», comme l’a expliqué Marc Benioff, le PDG de Salesforce, un des leaders mondiaux des logiciels destinés aux entreprises. S’il rejoint Sam Altman sur beaucoup de points, il estime toutefois qu’il faudra éviter le «bordel» engendré par les réseaux sociaux.

Là où l’IA semble apporter une contribution très positive, c’est dans la recherche des sciences du vivant. Selon le grand patron de Pfizer, Albert Bourla, l’IA permet aujourd’hui d’accélérer la mise au point de nouvelles molécules, notamment en permettant de mieux sélectionner celles qui ont une chance d’être très efficaces. «Le temps de développement qui se comptait en années a été réduit à des mois», comme l’a montré la fabrication des nouveaux vaccins contre le Covid-19.

«Dites-moi si je suis un bon chancelier»

On attendait beaucoup de l’intervention du chancelier britannique, Jeremy Hunt, qui a organisé la première conférence mondiale sur les dangers de l’IA. Mais il s’est montré très vague sur sa vision et le public n’aura sans doute guère davantage retenu que sa boutade. Pour illustrer le problème de la confiance dans les nouveaux outils de l’IA, il a demandé à ChatGPT «si Jeremy Hunt était un bon chancelier de l’Échiquier».

La machine lui a répondu, par deux fois, «désolé Jeremy Hunt n’est pas chancelier». Autant dire que la base de données de ChatGPT n’était pas fiable! Anecdote mise à part, Jeremy Hunt est convaincu qu’il faut éviter que l’IA ne serve à la mise au point de nouvelles armes, notamment en dialoguant avec la Chine, le pays qui dispose aujourd’hui de ressources en ingénierie sans doute supérieures à celles des États-Unis et de l’Europe.

Ceux qui ont participé à cette réunion ont probablement été déçus par l’absence de propos tranchants sur l’IA. Mais nous avons retenu un message: la technologie évolue plus vite que notre capacité à imaginer le futur. Les meilleurs experts, pour une fois, se montrent humbles dans leurs certitudes.