Roman Yampolskiy

Roman Yampolskiy
Biographie
Naissance
Voir et modifier les données sur Wikidata (45 ans)
LettonieVoir et modifier les données sur Wikidata
Formation
Activité
Autres informations
A travaillé pour
Directeur de thèse
Venugopal Govindaraju (en)Voir et modifier les données sur Wikidata

Roman Vladimirovitch Yampolskiy (en russe : Роман Владимирович Ямпольский ; né le 13 août 1979) est un informaticien letton de l'université de Louisville, connu pour ses travaux en sécurité de l'IA et en cybersécurité. Il est titulaire d'un doctorat de l'université de Buffalo (2008)[1]. Il dirige un laboratoire de cybersécurité à l'université de Louisville[2].

Yampolskiy est l'auteur d'une centaine de publications[3], dont plusieurs livres[4].

Sécurité de l'IA

[modifier | modifier le code]

Yampolskiy met en garde contre la possibilité d'un risque existentiel lié à l'intelligence artificielle avancée, et préconise des recherches sur le confinement de l'intelligence artificielle[5]. Plus largement, Yampolskiy et son collaborateur, Michaël Trazzi, proposent d'introduire des « talons d'Achille » dans les systèmes d'IA potentiellement dangereux, par exemple en interdisant à l'IA d'accéder à son propre code source et de le modifier[6],[7]. Une autre proposition consiste à appliquer une « mentalité de sécurité » à la sûreté de l'IA, en identifiant systématiquement les risques potentiels pour mieux évaluer l'efficacité des mécanismes de sécurité[8].

Il explique qu'il n'y avait aucune preuve d'une solution au problème du contrôle de l'IA, et propose de suspendre le développement de l'IA, en faisant valoir qu'« imaginer que les humains peuvent contrôler une IA superintelligente, c'est un peu comme imaginer qu'une fourmi peut contrôler le résultat d'un match de football américain qui se joue autour d'elle »[9],[10]. Il rejoint des chercheurs en IA tels que Yoshua Bengio et Stuart Russell en signant « Pause Giant AI Experiments: An Open Letter »[11].

Lors d'une apparition sur le podcast de Lex Fridman en 2024, Yampolskiy prédit que la probabilité que l'IA puisse conduire à l'extinction de l'humanité était de « 99,9 % au cours des cent prochaines années »[12].

Yampolskiy est conseiller de recherche au Machine Intelligence Research Institute et membre du programme de sécurité de l'IA au Foresight Institute[13].

Intellectologie

[modifier | modifier le code]

En 2015, Yampolskiy lance l'« intellectuologie », un nouveau domaine d'étude fondé pour analyser les formes et les limites de l'intelligence[14],[15],[16]. Yampolskiy considère l'IA comme un sous-domaine de cette discipline[14]. Un exemple du travail d'intellectologie de Yampolskiy est une tentative de déterminer la relation entre divers types d'intelligence et l'espace ludique accessible, c'est-à-dire l'espace des activités qui ne sont pas ennuyeuses[17].

Complétude de l'IA

[modifier | modifier le code]

Yampolskiy travaille sur le développement de la notion d'IA-complétude en théorie de la complexité, en utilisant le test de Turing comme exemple[18].

Références

[modifier | modifier le code]
  1. (en) « Dr. Roman V. Yampolskiy, Computer Science, Speed School, University of Louisville, KY », Cecs.louisville.edu (consulté le )
  2. (en) « Cyber-Security Lab », université de louisville (consulté le )
  3. (en) « Roman V. Yampolskiy », sur Google Scholar (consulté le )
  4. (en) « roman yampolskiy », Amazon.com (consulté le )
  5. (en) « Control dangerous AI before it controls us, one expert says », sur NBC News, (consulté le )
  6. (en) « Artificial stupidity could help save humanity from an AI takeover », sur New Scientist (consulté le )
  7. (en) Michaël Trazzi et Roman V. Yampolskiy, « Building Safer AGI by introducing Artificial Stupidity », sur Arxiv,
  8. Chris Baraniuk, « Checklist of worst-case scenarios could help prepare for evil AI », New Scientist,‎ (lire en ligne, consulté le )
  9. (en) « There is no evidence that AI can be controlled, expert says », The Independent, (consulté le )
  10. (en) McMillan, « AI Superintelligence Alert: Expert Warns of Uncontrollable Risks, Calling It a Potential 'An Existential Catastrophe' », The Debrief, (consulté le )
  11. (en) « Pause Giant AI Experiments: An Open Letter », Future of Life Institute (consulté le )
  12. (en) Ana Altchek, « Why this AI researcher thinks there's a 99.9% chance AI wipes us out », sur Business Insider (consulté le )
  13. (en-US) « Roman Yampolskiy », Future of Life Institute (consulté le )
  14. a et b (en) Roman V. Yampolskiy, Artificial Superintelligence: a Futuristic Approach, Chapman and Hall/CRC Press (Taylor & Francis Group), (ISBN 978-1482234435)
  15. (en) « Intellectology and Other Ideas: A Review of Artificial Superintelligence » [archive du ], sur Technically Sentient, (consulté le )
  16. (en) « Roman Yampolskiy on Artificial Superintelligence », sur Singularity Weblog, (consulté le )
  17. (en) Soenke Ziesche et Roman V. Yampolskiy « Artificial Fun: Mapping Minds to the Space of Fun » () (arXiv 1606.07092, consulté le )
    « (ibid.) », dans 3rd Annual Global Online Conference on Information and Computer Technology (GOCICT16). Louisville, KY, USA. 16–18 November 2016
  18. (en) Roman Yampolskiy, « Turing Test as a Defining Feature of AI-Completeness », Artificial Intelligence, Evolutionary Computing and Metaheuristics, Springer Berlin Heidelberg,‎ (lire en ligne)

Liens externes

[modifier | modifier le code]