정부, '제2의 이루다 사태' 근절한다... AI 신뢰성 확보 전략 추진 > IT인문학 이슈리포트

본문 바로가기
사이드메뉴 열기

IT인문학 이슈리포트 HOME

정부, '제2의 이루다 사태' 근절한다... AI 신뢰성 확보 전략 추진

페이지 정보

본문

2021051300179_0.jpg
정부가 혐오 발언 및 개인정보 유출 등의 이슈로 논란이 된 인공지능(AI) 챗봇 '이루다' 사태의 재발을 방지하기 위해 '신뢰할 수 있는 인공지능 실현전략'을 내놓았다.

과학기술정보통신부(이하 과기정통부)는 13일 대통령 직속 4차산업혁명위원회 제22차 전체회의에서 사람이 중심이 되는 인공지능을 위한 '신뢰할 수 있는 인공지능 실현전략'을 발표했다.

해외 주요국은 이미 인공지능의 사회적·산업적 수용의 전제요소로 인식하고 인공지능의 신뢰성을 강조하며 그 실현을 위한 적극적인 정책을 추진하고 있다.

유럽의 경우 사람에게 부정적 영향을 미칠 수 있는 고위험 인공지능을 중심으로 한 제도 정립을 선도 중이며, 미국은 기술개발과 민간 자율규제를 중심으로 인공지능에 대한 신뢰성 확보를 추진 중이다.

이 같은 흐름에 맞춰 우리 정부는 '인공지능 강국'으로 도약하기 위해 신뢰할 수 있는 인공지능 실현을 위한 지원 정책이 조속히 필요하다는 판단 하에 이번 전략을 마련했다.

이번 전략은 지난해 발표한 '인공지능 윤리기준'의 실천방안을 구체화하고 민간 자율적으로 신뢰성을 확보할 수 있도록 지원체계를 구축한다. 또한 재정·기술력이 부족한 스타트업 등에 대한 지원책을 담은 것이 특징이다.

과기정통부는 기술・제도・윤리 측면의 3대 전략과 10대 실행과제를 통해 2025년까지 단계적으로 추진한다는 방침이다.

우선 민간에서 인공지능 제품・서비스를 구현하는 단계(개발→ 검증→ 인증)에 따라 기업, 개발자, 제3자 등이 신뢰성 구현을 위해 참조할 수 있는 신뢰 확보 기준과 방법론을 제시하고 지원한다.

기술・재정적 상황이 열악한 스타트업 등을 대상으로는 체계적으로 신뢰성을 확보할 수 있도록 인공지능 구현을 위한 통합 지원 플랫폼을 운영한다.

이와 함께 이미 구현된 시스템에 인공지능이 판단기준 등을 설명할 수 있는 기능을 추가할 계획이며, 인공지능이 스스로 법・제도・윤리적 편향성을 진단하고 효율적으로 제거할 수 있도록 원천기술 개발을 추진한다.

민・관은 인공지능 학습용 데이터 제작공정에서 공통적으로 준수해야할 신뢰 확보 검증지표 등의 표준 기준을 민간과 함께 마련해 통일성 있게 구축 될 수 있도록 확산한다. 디지털 뉴딜로 추진되는 '데이터 댐' 사업에서는 구축 전 과정에서 저작권, 개인정보보호와 같은 법·제도 준수 여부 등의 신뢰성 확보 고려사항을 선제적으로 적용해 품질을 향상할 계획이다.

국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 고위험 인공지능에 대해서는 범주를 설정하고, 서비스 제공 전 해당 인공지능의 활용 여부를 이용자에게 고지하도록 할 계획이다. 고지 이후 해당 인공지능 기반 서비스에 대한 이용 거부, 인공지능의 판단 근거에 대한 결과 설명 및 이에 대한 이의제기 등의 제도화에 대해서는 글로벌 입법・제도화 동향, 산업적 파급력, 사회적 합의・수용성, 기술적 실현 가능성 등을 고려해 종합적으로 중장기 검토할 계획이다.

인공지능이 국민생활 전반에 미치는 영향을 종합・체계적으로 분석하고 대응하기 위한 사회적 영향평가도 도입된다. 신뢰성 요소(안전성, 투명성 등)를 토대로 인공지능의 영향력을 종합 분석하여 향후 인공지능 관련 정책이나 기술・관리적 조치방안 수립 시 활용할 방침이다.

또한 지난해 '인공지능 법・제도・규제 정비 로드맵'을 통해 발굴된 과제 중 인공지능에 대한 신뢰 확보, 이용자의 생명·신체보호 등과 관련된 과제인 ▲업계 자율적 알고리즘 관리・감독환경 조성 ▲플랫폼 알고리즘 공정성・투명성 확보 ▲영업비밀 보장을 위한 알고리즘 공개기준 마련 ▲고위험 기술기준 마련 등 관련 제도를 개선한다.

인공지능이 사회에 미치는 영향, 인간・인공지능 간 상호작용 등 사회·인문학적 관점과 윤리 기준의 사회 실천을 인식할 수 있는 내용을 담은 인공지능 윤리교육 총론도 마련된다. 이를 토대로  연구·개발자, 일반시민 등 맞춤형 윤리 교육을 개발·실시한다.

인공지능 윤리기준에 대한 구체적인 행위지침으로는 연구・개발자, 이용자 등이 업무, 일상생활 등의 속에서 윤리 준수 여부를 자율점검을 할 수 있는 체크리스트 개발해 보급한다. 기술발전의 양상을 반영하고 인공지능 윤리기준을 기본원칙으로해 타 분야의 자율점검표와 체계성과 정합성을 유지해 실천 가능성을 제고한다.

최기영 과기정통부 장관은 "최근 발생했던 챗봇 사건은 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다"며 "사람이 중심이 되는 인공지능 강국 실현을 위해 동 전략을 차질 없이 추진해나갈 계획"이라고 밝혔다.
김동준 기자 kimdj@newdailybiz.co.kr

댓글목록

등록된 댓글이 없습니다.

Total 10건 1 페이지
  • RSS
IT인문학 이슈리포트 목록
번호 제목 글쓴이 조회 날짜
10 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 973 05-18
9 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 910 05-18
8 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 879 05-18
열람중 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 959 05-18
6 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 904 05-18
5 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 930 05-18
4 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 1417 05-18
3 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 1115 05-18
2 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 1089 05-18
1 no_profile 최고관리자 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 883 05-18

검색