Passer à la navigation principale Passer à la recherche Passer au contenu principal

Bias in the Mirror: Are LLMs opinions robust to their own adversarial attacks ?

Résultats de recherche: Le chapitre dans un livre, un rapport, une anthologie ou une collectionContribution à une conférenceRevue par des pairs

Résumé

Large language models (LLMs) inherit biases from their training data and alignment processes, influencing their responses in subtle ways. While many studies have examined these biases, little work has explored their robustness during interactions. In this paper, we introduce a novel approach where two instances of an LLM engage in self-debate, arguing opposing viewpoints to persuade a neutral version of the model. Through this, we evaluate how firmly biases hold and whether models are susceptible to reinforcing misinformation or shifting to harmful viewpoints. Our experiments span multiple LLMs of varying sizes, origins, and languages, providing deeper insights into bias persistence and flexibility across linguistic and cultural contexts.

langue originaleAnglais
titreLong Papers
rédacteurs en chefWanxiang Che, Joyce Nabende, Ekaterina Shutova, Mohammad Taher Pilehvar
EditeurAssociation for Computational Linguistics (ACL)
Pages2128-2143
Nombre de pages16
ISBN (Electronique)9798891762510
Les DOIs
étatPublié - 1 janv. 2025
Modification externeOui
Evénement63rd Annual Meeting of the Association for Computational Linguistics, ACL 2025 - Vienna, Autriche
Durée: 27 juil. 20251 août 2025

Série de publications

NomProceedings of the Annual Meeting of the Association for Computational Linguistics
Volume1
ISSN (imprimé)0736-587X

Une conférence

Une conférence63rd Annual Meeting of the Association for Computational Linguistics, ACL 2025
Pays/TerritoireAutriche
La villeVienna
période27/07/251/08/25

Empreinte digitale

Examiner les sujets de recherche de « Bias in the Mirror: Are LLMs opinions robust to their own adversarial attacks ? ». Ensemble, ils forment une empreinte digitale unique.

Contient cette citation