“챗GPT 답변에 내정보 노출 안되게”…정부, 데이터 사용기준 마련

328

[아이뉴스24 박진영 기자] 챗GPT 등에 활용되는 음성, 텍스트, 이미지 등과 같은 비정형 데이터 활용에 대한 사용 기준이 새롭게 마련됐다.

인공지능 관련

개인정보보호위원회는 5일 이러한 내용을 담은 ‘가명정보 처리 가이드라인’ 개정안을 발표했다.

가명정보는 개인정보 일부 항목을 삭제·변형해 추가 정보 결합 없이는 특정 개인을 알아볼 수 없도록 한 정보다.

전 세계 데이터 중 최대 90%를 차지하고 있는 비정형데이터에 대한 활용수요가 최근 AI 기술과 컴퓨팅 자원의 발달로 폭발적으로 증가했다. 정형 데이터가 엑셀 파일처럼 행과 열 등 규정된 틀에 정리된 수치라고 한다면, 비정형 데이터는 정의된 구조가 없는 음성·텍스트·영상·이미지 등의 정보를 의미한다.

그러나 기존 ‘가명정보 처리 가이드라인’은 정형데이터에 대한 처리기준만 제시하고 있어 기업, 연구기관 등은 적합한 가명처리 방법이나 수준을 알지 못하는 등 현장의 불확실성이 컸다.

이에 개인정보위는 정책연구용역, 각 분야 전문가로 구성된 태스크포스를 운영, 산업계‧학계‧법조계‧시민사회 및 관계부처 의견수렴 등 1년여 기간 동안 준비 작업을 거쳐 가이드라인을 대폭 개정했다.

개정된 가이드라인에는 비정형데이터를 가명처리하고 활용하는 과정에서 특수하게 나타날 수 있는 개인정보 위험을 사전에 확인하고 통제하기 위한 원칙과 함께, 의료‧교통‧챗봇 등 각 분야 사례 및 시나리오를 제공함으로써 현장에서 손쉽게 활용할 수 있도록 했다.

비정형데이터는 개인식별 가능 정보에 대한 판단이 상황에 따라 달라질 수 있는 만큼, 데이터 처리목적 및 환경, 민감도 등을 종합적으로 고려해 개인식별 위험을 판단하고 합리적인 처리방법과 수준을 정하도록 했다.

일례로 정형데이터의 경우, 주민번호, 전화번호, 주소 등과 같이 개인식별위험이 있는 정보가 비교적 명확히 구분되지만, 비정형데이터는 그렇지 않다.

눈‧코‧입을 알아볼 수 없는 거리‧각도에서 찍힌 CCTV 영상‧사진도 머리스타일, 흉터, 문신 등 특이한 신체적 특징 때문에 식별위험이 있을 수 있다. 흉부 CT 촬영사진도 그 자체로는 식별위험이 높지 않지만 3차원 재건기술 악용, 특이한 흉터 등은 위험요소가 될 수 있다.

이에 대해 가이드라인에서 제시한 개인식별 위험성 검토 체크리스트를 통해 식별위험을 사전에 진단하고, 위험을 낮추기 위한 관리적‧환경적 통제방안을 마련해 활용토록 했다.

또 비정형데이터에 내재된 개인식별 위험 요인을 완벽하게 탐지해 처리할 수 있는 기술이 아직 없기 때문에, 이러한 기술적 한계 등을 보완하기 위한 조치들을 이행할 것을 권고한다.

가명처리 기술의 적절성·신뢰성을 확인할 수 있는 근거를 작성·보관하고, 가명처리 결과에 대해 자체적인 추가검수를 수행하도록 했다.

일례로 CT사진의 가장자리를 마스킹 솔루션을 적용해 가명처리한 경우, 해당 솔루션의 관련 가명처리 기능, 솔루션의 객체 인식률·처리 정확도(오류율)에 대한 증빙자료를 제출하는 방식이다.

아울러 비정형데이터는 다른 정보와의 연계·결합 없이도 개인을 재식별해낼 수 있는 위험이 있기 때문에 가명처리된 비정형데이터 활용 시 관련 시스템·소프트웨어(SW)의 접근·사용 제한 등 통제방안을 마련해야 한다.

고학수 개인정보위 위원장은 “인공지능 등 많은 신기술 영역은 현장의 불확실성을 해소할 수 있는 세밀한 데이터 처리정책이 중요하다”면서 “이번 가이드라인을 시작으로 대규모 언어모형 등 생성형 AI와 관련한 ‘공개된 개인정보 처리 가이드라인’ 등 현장의 어려움을 해소할 수 있는 기준을 올해 중에 순차적으로 발표하겠다”고 밝혔다.

+1
0
+1
0
+1
0
+1
0
+1
0