__

Le sexe représente 10% des questions posées aux chatbots IA


Une équipe de chercheurs a étudié le détail de 100 000 conversations que des humains ont eu avec 25 chatbots IA différents, et le sexe est le deuxième sujet le plus demandé.

Auteur / Autrice :

Une étude a analysé les conversations avec des chatbots IA de 210 000 personnes

D’après une étude parue sur la base arXiv fin septembre 2023, le sexe est une interrogation substantielle des utilisateurs des intelligence artificielles les plus pointues du monde.

Une équipe de chercheurs a analysé une base (nommée LMSYS-Chat-1M) comprenant 1 million de conversations réelles que des personnes ont eu avec 25 grands modèles de langage (LLM), tels que ChatGPT et Claude. Les conversations analysées s’étendent sur une période de cinq mois, entre avril et août 2023. Elles ont été faites dans environ 150 langues par plus de 210 000 utilisateurs (identifiés individuellement via leur adresse IP), et portent sur un large éventail de sujets.

Pour analyser les données, l’équipe a néanmoins utilisé un échantillon de 100 000 conversations seulement (sélectionnées au hasard), après avoir filtré celles uniquement en anglais, et enlevé les invites trop courtes (moins de 32 caractères) ou trop longues (plus de 1 536 caractères).

Presque 10% des requêtes faites à des IA concernent des demandes d’ordre sexuel

Ces membres de prestigieuses universités (Berkeley, San Diego, Carnegie Mellon, Stanford) ont constaté que même si la majorité des recherches et demandes des utilisateurs étaient liées à des sujets classiques (le code, la culture), il existait une part très importante liée à des sujets très sensibles.

Parmi ces sujets sensibles, on trouvait beaucoup de “demandes de récits explicites et érotiques” mais aussi des “fantasmes sexuels explicites et scénarios de jeux de rôle”. Dans le détail, les demandes “Requests for explicit and erotic storytelling” représentent 5.71%, et les demandes “Explicit sexual fantasies and role-playing scenarios” 3,91%. Soit au total 9,62% des requêtes.

Ce qui fait qu’additionnées, les deux catégories se placent en deuxième position, derrière la catégorie “Discussing software errors and solutions” qui totalise 10,43% des demandes.

Le graphique complet de l’analyse des conversations.

Les chercheurs ont également relevé que même s’ils utilisaient l’API d’OpenAI pour marquer une conversation comme “dangereuse”, celle-ci présentait certaines limites. L’API de modération peut détecter avec précision les contenus hautement toxiques, mais de nombreuses conversations potentiellement sensibles n’ont pas été signalées, et sont passés au travers du filtre.

Voir la publication sur arXiv : https://arxiv.org/abs/2309.11998.pdf