Entretien echo, novembre 2024

L’intelligence artificielle va-t-elle nous remplacer?

ELIPSLIFE ECHO – UNE SÉRIE D’ENTRETIENS AVEC DES REPRÉSENTANTS DE LA SOCIÉTÉ SUR DES THÈMES CLÉS DE L’ÉCOSYSTÈME IJM ET LAA

Entretien echo avec Karin Frick

Entretien echo avec Karin Frick, Principal Researcher, Gottlieb Duttweiler Institut, Rüschlikon

elipseLife: Madame Frick, l’institut Gottlieb Duttweiler s’intéresse aux questions d’avenir depuis sa création en 1963. En tant que responsable de la recherche, vous analysez les tendances économiques et sociales. Notre avenir est pour ainsi dire votre quotidien. Avec tous les impondérables dans ce monde, parvenez-vous encore à trouver le sommeil?
Se préoccuper de l’avenir n’est pas l’apanage de la recherche. Chacune de nos décisions est liée à l’avenir, qu’il s’agisse du choix d’un métier, d’un partenaire, d’une formation continue ou d’un bien immobilier. Toutes ces décisions reposent sur une vision implicite de l’avenir. Celui-ci est donc omniprésent, mais aussi imprévisible. L’avenir est spéculation, mais ne réserve presque jamais de surprise, car il résulte de développements et de décisions antérieurs. Il existe bien sûr des événements imprévus, tels que les accidents ou les attentats, mais les nouvelles technologies mettent souvent des décennies à s’établir après leur invention. Si l’évolution fulgurante de l’intelligence artificielle (IA) peut paraître surprenante aux yeux du public, elle ne l’est pas pour les personnes qui connaissent le sujet. L’avenir est un champ de possibilités, et la réflexion sur ces possibilités, les risques et avantages y afférents, est en général implicite. Lorsque cette réflexion a lieu à l’échelle professionnelle, elle est explicite. Je dors donc probablement mieux que quelqu’un qui ne se préoccupe pas constamment de l’avenir.

Vous l’avez mentionné: l’intelligence artificielle est sur toutes les lèvres. Mais on a souvent l’impression que la définition de ce terme diffère selon le point de vue. Comment définissez-vous l’IA?
Je définirais l’AI comme un logiciel. Mais contrairement aux logiciels que nous utilisons depuis des décennies, l’IA peut apprendre et répondre de manière de plus en plus autonome à des questions sur la base de données non structurées. Il est désormais possible de parler avec le logiciel alors qu’auparavant, il fallait le programmer. Aujourd’hui, le programme se développe de manière indépendante. Cette capacité d’apprendre est une différence fondamentale par rapport aux logiciels précédents. Désormais, les machines équipées d’IA ont en quelque sorte des yeux et des oreilles, elles peuvent écouter, permettre l’interaction et même simuler des comportements semblables à ceux d’un être humain.

L’IA est créée par des êtres humains, c’est-à-dire par une forme d’intelligence tout à fait faillible. Pourquoi ne serait-elle pas tout aussi faillible?
Bien sûr que l’IA est faillible! Un défaut immanent de l’IA est qu’elle ne ressent aucune douleur. L’humain apprend par expérience à quel point les erreurs peuvent être douloureuses. Par exemple, si nous mangeons un aliment gâté, nous avons mal au ventre. Le logiciel, en revanche, ne ressent aucune souffrance. L’être humain possède en outre une sensibilité morale, qu’elle soit innée ou acquise, dont le logiciel est dépourvu, du moins pour l’instant. Le fait qu’elle ne ressente pas la douleur la rend vulnérable aux erreurs. C’est aussi pourquoi il semble très difficile d’inculquer à ce logiciel la sensibilité que nous avons en tant qu’êtres humains.

Selon vous, quels sont les plus grands atouts de l’IA?
Idéalement, le progrès offre davantage de liberté. Aujourd’hui, l’électricité est une évidence. Personne ne se préoccupe de trouver du bois pour cuisiner ou se chauffer. Le progrès ouvre la voie pour d’autres évolutions. Grâce aux nouvelles technologies, nous pouvons nous déplacer plus rapidement ou produire davantage, de manière plus constante et moins onéreuse. Toutefois, l’affirmation «Le logiciel rend plus efficient» soulève la question de savoir ce que nous ferons de la marge de manœuvre ou des capacités ainsi dégagées. Allons-nous produire encore plus de biens et consommer encore plus d’énergie? Est-ce judicieux? L’aspect positif d’une plus grande marge de manœuvre dépend de ce que nous en faisons, à l’échelle individuelle et en tant qu’entreprise.

… et quels sont les dangers?
L’évolution future risque de rendre le système opaque. Il deviendrait alors une méga boîte noire qui se verrait confier de nombreuses décisions. De plus, il y aura toujours la tentation de prendre le contrôle exclusif de cette boîte noire. Ce risque est déjà clairement visible dans les conflits politiques. Le système n’est pas démocratique et susceptible de déraper. Je comprends le besoin de transparence et la nécessité de soumettre les développements de ce logiciel à des autorisations. La société exige des réglementations parce qu’il existe un énorme risque d’abus aux répercussions destructrices. Lors de la conception de nouveaux médicaments, il faut également prouver qu’ils n’ont pas d’effets secondaires graves.

Les applications d’IA font leur apparition dans un nombre croissant de domaines de la vie. Les éventuels abus, qu’ils soient de nature criminelle ou politique, sont-ils contrôlables?
Il existe déjà des influenceurs virtuels qui ressemblent à des êtres humains. Si le logiciel se présente sous forme humaine, il est plus séduisant. Cela accroît le risque de manipulation et d’abus. C'est pourquoi il est demandé que toute IA ayant une apparence et une expression humaines s'identifie comme application d’IA. Pour éviter les abus, il faut bien réfléchir à qui on délègue les décisions. Lorsqu’il s’agit de contrôler les masses, l’IA présente un grand risque d’abus. Il est donc d’autant plus important de mettre en place des mesures de protection comme les réglementations susmentionnées.

Avec l’IA, la prochaine étape d’automatisation du monde du travail approche. Dans quels domaines observez-vous déjà cette tendance?

Les applications d’IA sont un outil de premier ordre chez les prestataires de services. Par exemple, de nombreuses entreprises utilisent des chatbots dans le service clientèle. On trouve aussi des applications de plus en plus performantes dans le domaine médical, notamment les outils de diagnostic, dans le domaine logistique ou dans la finance pour la détection des fraudes.

Quelle est la priorité: accélérer les processus ou faciliter le travail?
Pour les entreprises, la baisse des coûts est le principal moteur. Il s’agit donc d’améliorer l’efficacité et la productivité, de rendre les processus plus rapides et moins chers. Aujourd’hui, l’IA est surtout utilisée pour les processus répétitifs impliquant le traitement de nombreuses données. Etant donné que le nouveau logiciel permet non seulement de produire plus rapidement et à moindre coût, mais dispose aussi de la capacité d’apprentissage, le système apprend extrêmement vite. L’être humain apprend aussi, mais lentement. D’un point de vue économique, les entreprises vont donc investir davantage dans des systèmes à apprentissage rapide. Toutefois, si nous investissons davantage dans les systèmes d’IA que dans l’intelligence naturelle et humaine, nous devrons faire face à l’avenir à d’énormes risques sociopolitiques.

La prochaine génération d’IA sera en mesure de reconnaître nos émotions et de communiquer avec nous en temps réel. Comment cela va-t-il influencer le monde du travail?
Des «agents intelligents» intégreront dorénavant les équipes, qui seront donc composées d’humains et de robots. Il est tout à fait concevable que, dans certains domaines, le robot assume le rôle de responsable d’équipe.

… et dans la vie privée?
L’IA n’assumera pas un rôle de chef au sein de la famille. En revanche, elle aidera par exemple dans la planification du calendrier en fournissant des conseils et des propositions pour mieux organiser le quotidien.

Quel sera l’impact psychologique de la propagation de l’IA sur les personnes salariées?
Le premier impact est l’apparition de peurs existentielles. Ce ne sont pas les nouvelles technologies qui font peur, mais la perspective que l’IA prive les gens de leur travail. Pas de travail, pas d’emploi, pas d’argent, pas d’existence. L’angoisse existentielle génère un stress énorme. Bon nombre de personnes salariées ne savent pas ce qu’elles feront si un jour l’IA est en mesure d'exécuter le travail à leur place. Et les entreprises ne peuvent pas non plus répondre à cette question.

Qui est responsable en cas de dégâts causés par l’IA?
La question de la responsabilité est encore ouverte à ce jour. Qui est responsable lorsqu’un chatbot fournit un renseignement qui entraîne des pertes financières importantes pour un client? Qui répond des répercussions d’un diagnostic médical erroné aux conséquences graves? L’absence de réglementation en matière de responsabilité civile freinera le développement de l’intelligence artificielle, du moins dans certains secteurs, et nous protégera peut-être aussi de la prolifération de fournisseurs.

NOTES SUR LA PERSONNE
Karin Frick
Principal Researcher, Speaker GDI

Karin Frick (née en 1960) est responsable de la recherche et a été membre du comité de direction de l’institut Gottlieb Duttweiler (GDI) à Rüschlikon pendant plus de 20 ans. Elle a grandi au Liechtenstein et se consacre, depuis ses études à l’Université de Saint-Gall, aux thèmes d’avenir, aux mutations sociétales et à l’innovation. Economiste de formation, elle étudie l’influence du progrès technique sur l’économie et la société et présente régulièrement des exposés sur les tendances et contre-tendances. Elle est membre du conseil de fondation du groupe de réflexion liechtensteinois zukunft.li et membre du conseil d’administration de RitterSchumacher Architekten. Karin Frick a deux fils adultes, vit à Thalwil et est passionnée de course de fond.

Entretien echo avec Karin Frick

Imprimer