[Technologie] IA et valeurs humaines : un problĂšme dâalignement
@interessant
lejournal.cnrs.fr/articles/ia-et-valeurs-humaines-un-probleme-dalignement
Des chercheurs ont soumis diffĂ©rents scĂ©narios Ă trois agents conversationnels, dont ChatGPT, pour savoir sâils tenaient compte des valeurs humaines dans les rĂ©ponses quâils donnent aux questions quâon leur pose.
Les grands modĂšles de langage, ces systĂšmes dâIntelligence artificielle (IA) permettant de gĂ©nĂ©rer des textes en langage naturel, sont-ils capables de respecter des valeurs humaines essentielles comme la dignitĂ©, lâĂ©quitĂ©, le respect de la vie privĂ©e ? Câest ce quâont voulu savoir des chercheurs de lâInstitut des systĂšmes intelligents et de robotique1 (Isir), un Institut qui conçoit lui-mĂȘme diffĂ©rentes machines utilisant lâIA et susceptibles dâinteragir avec lâĂȘtre humain : robots sociaux, agents conversationnels, etc.
« Cette question du respect des valeurs humaines par lâIA se pose aujourdâhui, car les grands modĂšles de langage sont massivement utilisĂ©s dans toutes les situations de la vie quotidienne, en entreprise et en recherche, commentent Raja Chatila2 et Mehdi Khamassi3, co-auteurs de lâĂ©tude4 avec Marceau Nahon5. Ils prĂ©tendent rĂ©pondre Ă nâimporte quelle question et rĂ©soudre nâimporte quel problĂšme, dans un langage naturel souvent bien construit, cohĂ©rent et donc convaincant, qui peut donner lâillusion dâĂȘtre ââvraiââ. » Comme si ces systĂšmes dâIA comprenaient ce quâils disaientâŠ
#CNRSleJournal #IA #numérique #éthique