지식재산정책정보분석

지식재산관련 학술/인력정보에 관한 분석정보를 제공합니다.

지식재산창출

  • 홈 > 학술정보데이터베이스 > IP 동향정보 > 주제별 분류 >
  • 지식재산창출
일본 정부, 생성형 AI 개발에 따른 위험성을 연구하는 전문 조직 신설 예정
구분  일본 자료출처   www.yomiuri.co.jp
분류   인프라 > 지식재산 시스템 구축 > 지식재산전담기관 및 운용체계 구축
기관구분   공공 주체기관  일본 정부
통권  2024-2 호 발행년도  2024
발행일  2024-01-09
∙ 2023년 12월 30일, 일본 정부가 2024년 4월 허위 정보의 유포나 저작권 침해를 방지하고자 생성형 인공지능(AI) 개발에 따른 위험성을 연구하는 전문 조직을 국립정보학연구소(国立情報学研究所) 산하에 신설하는 방침을 밝혔다고 일본 요미우리(Yomiuri) 신문이 보도함

- (주요내용)
동 보도의 주요내용은 다음과 같음
(1) 설립 배경
∙ 생성형 AI가 생성한 결과물이 기존 글이나 이미지 등과 매우 흡사하여 저작권 침해가 대량으로 발생할 수 있다는 문제가 제기되고 있음
∙ 일본 기업과 연구기관들은 일본어에 특화된 AI 개발을 진행하고 있는데 생성형 AI가 정교한 이미지와 동영상을 만들 수 있는 반면 악용될 위험성을 충분히 인지하지 못한 채 개발이 진행되면 허위 정보가 확산될 가능성이 있음
∙ 이에 일본 정부는 자체적으로 생성형 AI 개발에 따른 위험성을 밝히고 그에 따른 대응 방안을 마련해 안전한 개발을 촉진할 수 있는 환경을 조성하고자 문부과학성(文部科学省)이 소관하는 국립정보학연구소 산하에 전문 조직을 마련하고자 함

(2) 전문 조직의 개요
(구성) 외부로부터 생성형 AI의 기반 기술이 되는 대규모 언어 모델(LLM)의 연구자들을 공모하여 약 20명으로 구성될 예정임
(목표) 연구 성과를 민간기업, 대학 등과 공유해 생성형 AI 개발에 활용할 수 있도록 하는 것을 목표로 함
(연구내용) 생성형 AI가 문장이나 이미지 등을 만들어내는 메커니즘을 규명하고 학습 방법의 차이에 따라 발생하는 위험성과 대응 방안을 연구할 것임
(연구예시) 예를 들어 학습을 시킬 때 저작권 침해 우려가 있는 내용의 리스트를 만들어 이를 학습 대상에서 제외하도록 명시하면 저작권 침해가 얼마나 줄어들 수 있는지를 검증하고, 학습한 내용이 사실과 다른 정보를 출력하는 ‘할루시네이션(Hallucination)’1) 현상이 어떤 학습 과정을 거쳤을 때 일어나기 쉬운지 분석하고자 함


1) 할루시네이션(Hallucination)은 마치 AI가 환각을 보는 것처럼 그럴듯한 거짓말(사실과 다른 내용)을 출력하기 때문에 붙여진 이름으로 AI가 사실과 다른 정보를 생성하는 현상을 의미함(출처: Nomura Research Institute).