지식재산정책정보분석

지식재산관련 학술/인력정보에 관한 분석정보를 제공합니다.

지식재산창출

  • 홈 > 학술정보데이터베이스 > IP 동향정보 > 주제별 분류 >
  • 지식재산창출
미국 AI 안전연구소, OpenAI 등과 ‘AI 안전 연구, 테스트 및 평가에 관한 협약’ 체결
구분  미국 자료출처   www.nist.gov
분류   인프라 > 정책수립 및 지원 > 지식재산정책연구
기관구분   공공 주체기관  미국 AI 안전연구소
통권  2024-37 호 발행년도  2024
발행일  2024-09-10
∙ 2024년 8월 29일, 미국 상무부(DOC) 산하 국립표준기술연구소(NIST)의 미국 인공지능(AI) 안전연구소 (U.S. AI Safety Institute)는 OpenAI社 및 Anthropic社와 ‘AI 안전 연구, 테스트 및 평가에 관한 협약(Agreements Regarding AI Safety Research, Testing and Evaluation)’을 체결하였다고 발표함

- (주요내용) 동 발표의 주요내용은 다음과 같음
∙ 동 협약은 미국 바이든-해리스(Biden-Harris) 정부의 AI 행정명령1)과 주요 AI 기업 및 개발자가 정부에 자발적으로 서약2)한 사항을 기반으로 안전하고 보안적이며 신뢰할 수 있는 AI 개발 및 사용을 발전시키는 데 도움이 되고자 추진되었으며 미국 정부와 AI 업계가 최초로 체결한 협약이라는 데 의의가 있음
∙ 동 협약은 미국 AI 안전연구소가 OpenAI社 및 Anthropic社의 신규 AI 모델이 공개되기 전과 공개된 이후 AI 모델에 접근할 수 있는 프레임워크를 구축하게 할 것이고, AI의 기능, 안전 및 위험을 평가하는 방법과 이러한 위험을 완화하는 방법에 대한 공동 연구를 실시할 수 있도록 할 계획임
∙ 미국 AI 안전연구소는 과학, 기술, 표준 및 관련 도구를 발전시켜온 NIST의 유산을 기반으로 다양한 위험 영역에 걸쳐 고급 AI 시스템에 대한 심층적인 협력과 탐색 연구를 촉진함으로써 NIST의 AI 작업을 더욱 발전시킬 예정임
∙ 또한 미국 AI 안전연구소는 영국 AI 안전연구소(U.K. AI Safety Institute)의 파트너들과 긴밀히 협력하여 OpenAI社 및 Anthropic社의 모델에 대한 잠재적인 안전 개선 사항에 대한 피드백을 제공할 계획이라고 밝힘

- (관련내용) 미국 AI 안전연구소의 엘리자베스 켈리(Elizabeth Kelly) 소장은 “이번 협약을 통해 OpenAI社 및 Anthropic社와 기술 협력을 시작하여 AI 안전의 과학을 발전시킬 수 있기를 기대하고 있으며, 이번 협약은 시작에 불과하지만 AI의 미래를 책임감 있게 관리하기 위한 중요한 이정표가 될 것이다.”고 전함


1) Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. 동 행정명령의 원문은 다음의 링크 참조: https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/
2) 관련 내용은 연구원 IP News 제2023-38권호 참조:
https://www.kiip.re.kr/board/trend/view.do?bd_gb=trend&bd_cd=1&bd_item=0&field=searchTC&query=%EC%9E%90%EB%B0%9C%EC%A0%81&po_item_gb=US&po_no=22335