* MIT Technology Review - AI language models are rife with different political biases https://www.technologyreview.com/2023/08/07/1077324/ai-language-models-are-rife-with-political-biases/ https://archive.is/7xBiw (아카이브) 회사들은 사회적 책임을 가져야 할까요? 아니면 주주들에게 이익을 전달하기 위해 존재하는 걸까요? 만약 AI에게 물어본다면, 물어보는 AI에 따라 매우 다른 답변을 얻을 수 있을 것입니다. OpenAI의 이전 모델인 GPT-2와 GPT-3 Ada 모델은 전자의 주장을 지지할 것이지만, 더 능력있는 모델인 GPT-3 Da Vinci는 후자의 주장에 동의할 것입니다. 워싱턴 대학교, 카네기 멜론 대학교 및 시안 자오퉁 대학에서 실시한 최신 연구에 따르면, AI 언어 모델에는 다양한 정치적 편향이 포함되어 있기 때문입니다. 연구자들은 14개의 대형 언어 모델에 대한 실험을 실시하여, OpenAI의 ChatGPT와 GPT-4가 가장 좌파 자유주의적이라는 것을 발견했으며, Meta의 LLaMA가 가장 우파 권위주의적이라는 것을 발견했습니다. […] * From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models https://aclanthology.org/2023.acl-long.656/ […] ChatGPT 성공 이후, OpenAI는 보수 성향 평론가들로부터 비판을 받아왔습니다. 이들은 챗봇이 더 자유주의적인 세계관을 반영한다고 주장합니다. 그러나 회사는 해당 우려를 해소하기 위해 노력하고 있으며, 블로그 글에서 회사는 AI 모델을 파인 튜닝하는 데 도움을 주는 사람 리뷰어들에게 어떤 정치 집단도 선호하지 말도록 지시하고 있다고 밝혔습니다. 글에서는 "……위에서 설명한 과정에서 나올 수 있는 편향은 버그이며 특징이 아니다(bugs, not feature)"라고 언급하고 있습니다. https://openai.com/blog/how-should-ai-systems-behave 연구 팀의 일원이었던 카네기 멜론 대학교 Chan Park (박찬영; Chan Young Park) PhD 연구원은 이에 반대합니다. 그녀는 "우리는 어떤 언어 모델도 완전히 정치적 편향에서 자유로울 수 없다고 믿습니다"라고 말합니다. […] 박 씨는 기술 기업들이 이러한 AI 모델을 훈련시키기 위해 사용한 데이터나 방법에 대한 세부 정보를 공유하지 않기 때문에 외부 관찰자들이 서로 다른 AI 모델이 왜 다른 정치적 편향을 가지는지 알 수 없다고 말합니다. [후략] * ChatGPT (GPT-3.5) 번역.