banner
Centre d'Information
Nos produits sont estimés dans les régions nationales et étrangères.

Juliette Powell et Art Kleiner, auteurs de The AI ​​Dilemma

Apr 10, 2024

Publié

sur

Par

Le dilemme de l'IA est écrit par Juliette Powell et Art Kleiner.

Juliette Powell est une auteure, une créatrice de télévision avec 9 000 émissions en direct à son actif, ainsi qu'une technologue et sociologue. Elle est également commentatrice sur Bloomberg TV/Business News Networks et conférencière lors de conférences organisées par The Economist et la Société Financière Internationale. Sa conférence TED compte 130 000 vues sur YouTube. Juliette identifie les modèles et les pratiques des chefs d'entreprise à succès qui misent sur l'IA et les données éthiques pour gagner. Elle fait partie du corps professoral de l'ITP de NYU, où elle enseigne quatre cours, dont Design Skills for Responsible Media, un cours basé sur son livre.

Art Kleiner est écrivain, éditeur et futuriste. Ses livres incluent The Age of Heretics, Who Really Matters, Privilege and Success et The Wise. Il a été rédacteur en chef de Strategy+Business, le magazine primé publié par PwC. Art est également membre de longue date du corps professoral de NYU-ITP et de l'IMA, où ses cours incluent le co-enseignement de la technologie responsable et de l'avenir des médias.

« The AI ​​Dilemma » est un livre qui se concentre sur les dangers de la technologie de l’IA entre de mauvaises mains, tout en reconnaissant les avantages que l’IA offre à la société.

Les problèmes surviennent parce que la technologie sous-jacente est si complexe qu’il devient impossible pour l’utilisateur final de véritablement comprendre le fonctionnement interne d’un système fermé.

L’un des problèmes les plus importants mis en évidence est la façon dont la définition de l’IA responsable évolue constamment, car les valeurs sociétales ne restent souvent pas cohérentes au fil du temps.

J'ai beaucoup aimé lire « Le dilemme de l'IA ». C'est un livre qui ne fait pas de sensationnalisme sur les dangers de l'IA ni n'approfondit les pièges potentiels de l'intelligence générale artificielle (AGI). Au lieu de cela, les lecteurs découvrent les façons surprenantes dont nos données personnelles sont utilisées à notre insu, ainsi que certaines des limites actuelles de l’IA et des raisons de s’inquiéter.

Vous trouverez ci-dessous quelques questions conçues pour montrer à nos lecteurs ce qu'ils peuvent attendre de ce livre révolutionnaire.

Qu’est-ce qui vous a initialement inspiré pour écrire « The AI ​​Dilemma » ?

Juliette est partie en Colombie pour étudier les limites et les possibilités de régulation de l'IA. Elle avait entendu des amis travaillant sur des projets d’IA lui parler de la tension inhérente à ces projets. Elle est arrivée à la conclusion qu’il existait un dilemme en matière d’IA, un problème bien plus important que l’autorégulation. Elle a développé le modèle de référence Apex, un modèle montrant comment les décisions concernant l’IA tendaient vers une faible responsabilité en raison des interactions entre les entreprises et les groupes au sein des entreprises. Cela a conduit à sa thèse.

Art avait travaillé avec Juliette sur un certain nombre de projets d'écriture. Il a lu sa thèse et a dit : « Vous avez un livre ici. » Juliette l'a invité à en co-écrire. En travaillant ensemble, ils ont découvert qu’ils avaient des points de vue très différents, mais qu’ils partageaient la même conviction que ce phénomène complexe et très risqué de l’IA devait être mieux compris afin que les personnes qui l’utilisent puissent agir de manière plus responsable et plus efficace.

L’un des problèmes fondamentaux mis en évidence dans The AI ​​Dilemma est qu’il est actuellement impossible de comprendre si un système d’IA est responsable ou s’il perpétue les inégalités sociales en étudiant simplement son code source. Quelle est l’ampleur du problème ?

Le problème ne vient pas principalement du code source. Comme le souligne Cathy O'Neil, lorsqu'il existe un système fermé, ce n'est pas seulement le code. C'est le système sociotechnique – les forces humaines et technologiques qui se façonnent mutuellement – ​​qu'il faut explorer. La logique qui a construit et lancé le système d'IA impliquait d'identifier un objectif, d'identifier des données, de définir des priorités, de créer des modèles, de mettre en place des lignes directrices et des garde-fous pour l'apprentissage automatique et de décider quand et comment un humain devrait intervenir. C'est la partie qui doit être rendue transparente – du moins pour les observateurs et les auditeurs. Le risque d’inégalité sociale et d’autres risques sont bien plus grands lorsque ces éléments du processus sont cachés. Vous ne pouvez pas vraiment réorganiser la logique de conception à partir du code source.