오픈AI 임원 “차세대 AI 모델, 생물무기 개발에 악용될 수도”

596
오픈AI 추론 모델 o3 [사진: 디지털투데이]
오픈AI 추론 모델 o3 [사진: 디지털투데이]

[디지털투데이 AI리포터] 오픈AI 임원은 차세대 대규모언어모델(LLM)이 생물무기 개발을 돕는 위험한 도구가 될 수 있다고 경고했다.

19일(현지시간) 실리콘앵글에 따르면 오픈AI의 안전 시스템 책임자인 요하네스 하이데케는 향후 출시될 모델이 회사의 대비 프레임워크(AI로 인한 위험을 평가하기 위해 구축한 시스템)에 따라 ‘고위험 분류’를 촉발할 것으로 예상했다.

이어 하이데케는 “o3 추론 모델의 후속 모델 중 일부가 그 수준에 도달할 것으로 예상한다”며, “AI가 이전에 존재하지 않았던 무기를 만드는 데 사용될까 봐 걱정하는 것이 아니라, 과학자들이 이미 잘 알고 있는 것들을 복제할 수 있는 잠재력에 대해 우려하고 있다”고 덧붙였다.

하이데케는 이러한 위험을 완화하는 유일한 방법은 새로운 모델을 대중에게 공개하기 전에 철저하게 평가할 수 있는 보다 정확한 테스트 시스템을 구축하는 것이라고 지적했다. 

한편, 최근 오픈AI는 블로그 게시물에서 생물학적 무기를 만들려는 누군가에 의해 모델이 악용될 수 있는 위험을 완화하기 위해 안전성 테스트를 강화하고 있다고 밝혔다.

+1
0
+1
0
+1
0
+1
0
+1
0

테크 랭킹 인기글