지식재산정책정보분석
지식재산관련 학술/인력정보에 관한 분석정보를 제공합니다.
지식재산창출
- 홈 > 학술정보데이터베이스 > IP 동향정보 > 주제별 분류 >
- 지식재산창출
| 일본 정부, 생성형 AI 개발에 따른 위험성을 연구하는 전문 조직 신설 예정 |
|---|
| 구분 | 일본 | 자료출처 | www.yomiuri.co.jp |
|---|---|---|---|
| 분류 | 인프라 > 지식재산 시스템 구축 > 지식재산전담기관 및 운용체계 구축 | ||
| 기관구분 | 공공 | 주체기관 | 일본 정부 |
| 통권 | 2024-2 호 | 발행년도 | 2024 |
| 발행일 | 2024-01-09 | ||
|
∙ 2023년 12월 30일, 일본 정부가 2024년 4월 허위 정보의 유포나 저작권 침해를 방지하고자 생성형 인공지능(AI) 개발에 따른 위험성을 연구하는 전문 조직을 국립정보학연구소(国立情報学研究所) 산하에 신설하는 방침을 밝혔다고 일본 요미우리(Yomiuri) 신문이 보도함
- (주요내용) 동 보도의 주요내용은 다음과 같음 (1) 설립 배경 ∙ 생성형 AI가 생성한 결과물이 기존 글이나 이미지 등과 매우 흡사하여 저작권 침해가 대량으로 발생할 수 있다는 문제가 제기되고 있음 ∙ 일본 기업과 연구기관들은 일본어에 특화된 AI 개발을 진행하고 있는데 생성형 AI가 정교한 이미지와 동영상을 만들 수 있는 반면 악용될 위험성을 충분히 인지하지 못한 채 개발이 진행되면 허위 정보가 확산될 가능성이 있음 ∙ 이에 일본 정부는 자체적으로 생성형 AI 개발에 따른 위험성을 밝히고 그에 따른 대응 방안을 마련해 안전한 개발을 촉진할 수 있는 환경을 조성하고자 문부과학성(文部科学省)이 소관하는 국립정보학연구소 산하에 전문 조직을 마련하고자 함 (2) 전문 조직의 개요 ∙ (구성) 외부로부터 생성형 AI의 기반 기술이 되는 대규모 언어 모델(LLM)의 연구자들을 공모하여 약 20명으로 구성될 예정임 ∙ (목표) 연구 성과를 민간기업, 대학 등과 공유해 생성형 AI 개발에 활용할 수 있도록 하는 것을 목표로 함 ∙ (연구내용) 생성형 AI가 문장이나 이미지 등을 만들어내는 메커니즘을 규명하고 학습 방법의 차이에 따라 발생하는 위험성과 대응 방안을 연구할 것임 ∙ (연구예시) 예를 들어 학습을 시킬 때 저작권 침해 우려가 있는 내용의 리스트를 만들어 이를 학습 대상에서 제외하도록 명시하면 저작권 침해가 얼마나 줄어들 수 있는지를 검증하고, 학습한 내용이 사실과 다른 정보를 출력하는 ‘할루시네이션(Hallucination)’1) 현상이 어떤 학습 과정을 거쳤을 때 일어나기 쉬운지 분석하고자 함 1) 할루시네이션(Hallucination)은 마치 AI가 환각을 보는 것처럼 그럴듯한 거짓말(사실과 다른 내용)을 출력하기 때문에 붙여진 이름으로 AI가 사실과 다른 정보를 생성하는 현상을 의미함(출처: Nomura Research Institute). |
|||