
인공지능(AI)의 답변은 일관성이 없으며, 이에 따라 가치관이나 선호도 있을 수 없다는 연구 결과가 나왔다. 당연한 말이지만, 이는 앞으로도 대형언어모델(LLM)은 인격과 같은 것을 가질 수 없다는 근거로 강조됐다.
MIT 컴퓨터과학 및 인공지능 연구소(CSAIL)는 8일(현지시간) 온라인 아카이브를 통해 ‘재현이 아닌 무작위(Randomness, Not Representation): LLM의 문화적 평가의 신뢰성 부족‘이라는 논문을 게재했다.
연구진은 AI 시스템을 ‘문화적으로 정렬(alignment)’하는 것, 즉 모델이 인간이 원하는 바람직한 방식으로 동작하도록 하는 것이 흔히 생각하는 것보다 더 어려울 수 있다고 지적했다. 또 “AI는 안정성, 외삽 가능성, 그리고 조종 가능성에 대한 많은 가정을 따르지 않는다는 것”이라고 밝혔다.
이는 AI가 특정한 조건에는 일정한 원칙에 따라 움직여야 하지만, 그렇지 않다는 것을 말하는 것이다.
연구진은 ‘라마 3.1 405B’와 ‘클로드 3.5 소네트’, ‘GPT-4o’ ‘제미나이 2.0 플래시’ ‘미스트랄 라지’ 등 가장 대중적인 모델을 분석했다. AI 모델이 얼마나 강한 견해와 가치관을 보이는지 살펴봤으며, 이런 점을 쉽게 수정할 수 있는지도 조사했다.
그 결과, 어떤 모델도 일관성 있는 선호도를 보이지 못했다고 밝혔다. 특히, 질문의 표현과 방식에 따라 번번이 매우 다른 답을 출력했다는 결론이다.
연구진은 이것이 “AI 모델이 매우 일관성이 없고 불안정한 증거”라고 지적했다. 나아가 근본적으로 인간과 같은 선호도를 내면화할 수 없다는 것을 보여주는 설득력 있는 증거라고 주장했다.
“이번 연구를 통해 깨달은 것은 AI 모델이 안정적이고 일관된 신념과 선호를 가진 체계가 아니라는 것”이라며 “대신, AI는 되는대로 말을 막던지는 모방자일 뿐”이라고 밝혔다.
이처럼 이는 최근 들어 AI 챗봇을 인격화하는 경향이 강해지는 데 대한 반박이라는 논리다.
이에 대해 마이크 쿡 킹스칼리지 런던 AI 전문 연구원은 테크크런치와의 인터뷰에서 “모델은 가치관 변화에 ‘반대’할 수 없다. 단지, 우리가 시스템에 투사하는 것을 받아들일 뿐”이라고 지적했다.
따라서 현재의 AI 시스템이 언젠가는 인격을 가지게 되는 일은 없을 거라는 주장이다. “AI가 자신만의 목표를 갖거나 가치를 획득할 수 있다는 것은 오해나 과장일 뿐”이라고 설명했다.
임대준 기자 ydj@aitimes.com
- [4월14일] 일주일 내내 ‘사상 최악’…애플 수난 시대
- 당장 모두 프사 바꿀 듯… 지브리 다음 ‘이것’ 유행?
- 오픈AI, 코딩 성능 강화된 개발자용 ‘GPT-4.1’ API 출시
- 당장 모두 프사 바꿀 듯… 지브리 다음 ‘이것’ 유행?
- 인간 동작 생성·편집하는 AI 모델 등장…”애니메이션·게임 제작 혁신 예고”