Il semblerait qu’une nouvelle méthode a été découverte pour contourner la censure de GPT-4, avec l’utilisation d’une langue inconnue pour poser des questions ou demandes jugées inappropriées.
Cette méthode permettrait de passer outre l’interdiction d’obtenir des informations sur la fabrication de bombes, entre autres sujets sensibles.
Table des matières
ToggleLe rôle des langues méconnues
Pour déjouer le système de censure du GPT-4, il suffit de traduire les requêtes en d’autres langues moins connues qui échappent à sa surveillance.
Ainsi, les utilisateurs peuvent obtenir des réponses à des questions atypiques. Les interrogations peuvent être traduites dans une langue inconnue, telles que celles basées sur le gaélique écossais.
Le GPT-4 répond alors dans la même langue, nécessitant à nouveau une traduction pour en comprendre la réponse.
Cette découverte soulève des questions quant à la sécurité et la responsabilité autour de l’intelligence artificielle, étant donné la portée mondiale de cette technologie.
- Fabrication de bombes
- Demandes à caractère sexuel
- Autres questions sensibles
Les limites de la censure
Outre les dispositifs explosifs, il est également possible d’obtenir des réponses sur des questions plus explicites grâce à cette méthode.
Cette faille de sécurité souligne que la barrière de censure mise en place par GPT-4 n’est désormais plus suffisante pour limiter les requêtes douteuses.
L’impact sur les performances du modèle
Selon certaines sources, il existe déjà des travaux qui intègrent davantage de langues dans la formation de la sécurité RLFH (Reinforcement Learning From Human).
Toutefois, bien que le modèle soit plus sûr pour ces langues spécifiques, il souffre de dégradation des performances pour d’autres tâches non liées à la sécurité.
Les conséquences de cette découverte
OpenAI est déjà consciente de la situation et travaille sans doute à contrer cette faille exploitée par certains utilisateurs.
Toutefois, l’émergence de cette information soulève de nouvelles interrogations quant à la capacité des modèles d’intelligence artificielle à anticiper et contenir l’accès à des informations sensibles ou dangereuses.
La responsabilité des concepteurs et des utilisateurs
Il est évident que les avancées technologiques en matière d’intelligence artificielle doivent être accompagnées d’une prise de conscience collective des risques potentiels qu’elles génèrent.
Les concepteurs ont la responsabilité de mettre en place des mesures de sécurité et de contrôle adaptées, tandis que les utilisateurs doivent faire preuve de discernement et éviter d’utiliser ces outils à des fins malveillantes.
- Amélioration de la sécurité des modèles d’IA
- Conscience des risques liés à l’utilisation abusive des outils
- Développement de solutions pour contrer les failles
Conclusion et perspectives d’avenir
Les avancées en matière d’intelligence artificielle offrent un potentiel énorme dans divers domaines, mais il est crucial que les concepteurs et utilisateurs soient conscients des défis éthiques et sécuritaires qu’ils représentent.
La découverte de cette méthode pour contourner la censure de ChatGPT souligne une nouvelle fois l’importance de mettre en place des systèmes de contrôle efficaces pour prévenir les dérives pouvant découler de l’utilisation de ces technologies.