인공지능 윤리: Difference between revisions
From CS Wiki
No edit summary |
(OECD) |
||
Line 2: | Line 2: | ||
;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙 | ;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙 | ||
;* 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성 | ;*약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성 | ||
==필요성== | ==필요성 및 주목 배경== | ||
*인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려 | *인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려 | ||
*의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용 | *의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용 | ||
*인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생 | |||
*인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가 | *인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가 | ||
== | === 인공지능 윤리 이슈 사례 === | ||
* | * '''(기술오남용)''' 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월) | ||
* '''(데이터 편향성)''' 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월) | |||
* '''(알고리즘 차별)''' 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월) | |||
* '''(프라이버시 침해)''' 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월) | |||
==역사== | |||
* | |||
==주요 이슈== | ==주요 이슈== | ||
Line 65: | Line 73: | ||
==주요 사례== | ==주요 사례== | ||
=== | === 국내 === | ||
* 지능정보사회윤리가이드라인(18.4, 정보문화포럼) | |||
* 이용자중심의 지능정보사회를 위한 원칙('19.11, 방송통신위원회) | |||
* [[과학기술정보통신부]], [[4차산업혁명위원회]] '''[[인공지능 윤리기준(과학기술정보통신부)|인공지능 윤리기준]]''' | |||
===주요 국가 인공지능 윤리=== | |||
*유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006) | *유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006) | ||
*EU, [[신뢰할 수 있는 AI를 위한 윤리 가이드라인|신뢰할 수 있는 AI를 위한 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹)]] | |||
*산업자원부 '''로봇윤리헌장'''(2007) | *산업자원부 '''로봇윤리헌장'''(2007) | ||
*일본 총무성 인공지능 윤리 가이드라인 | *일본, 총무성 인공지능 윤리 가이드라인 | ||
*[[ | *[[인간 중심의 AI 원칙(일본)|일본, 인간 중심의 AI 원칙(‘19.3, 통합혁신전략추진회의)]] | ||
=== 기업의 인공지능 윤리 === | ===기업의 인공지능 윤리=== | ||
*마이크로소프트 인공지능 개발 원칙 | *마이크로소프트 인공지능 개발 원칙 | ||
*구글 | *미국 AI 활용에 대한 구글 원칙(’18.6, 구글) | ||
*IBM 인공지능 일반 윤리 | *IBM 인공지능 일반 윤리 | ||
*카카오 AI 알고리즘 윤리 헌장 | *카카오 AI 알고리즘 윤리 헌장 | ||
=== 학회 및 협회, 국제 기구의 인공지능 윤리 === | ===학회 및 협회, 국제 기구의 인공지능 윤리=== | ||
* OECD | *[[OECD AI 권고안|OECD, AI 권고안]]('19.5, OECD 위원회) | ||
**G20 정상선언문으로 발표(19.6) | |||
*[[아실로마 인공지능 원칙]] | |||
*IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12) | |||
*유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹) | |||
=== 기타 === | ===기타=== | ||
*'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙''' | *'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙''' | ||
Line 92: | Line 110: | ||
#로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다. | #로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다. | ||
== 각주 == | ==각주== | ||
<references /> | <references /> |
Revision as of 09:31, 2 May 2021
- 인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
- 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성
필요성 및 주목 배경
- 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
- 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
- 인공지능을 악용한 범죄 및 오작동으로 인한 피해 발생
- 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
인공지능 윤리 이슈 사례
- (기술오남용) 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜음성에 속아 22만 유로를 송금하는 피해(’19.9월)
- (데이터 편향성) 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기(‘18.10월)
- (알고리즘 차별) 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배이상 높게 예측하는 편향 발견(’18.1월)
- (프라이버시 침해) 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란(UPI, ‘19.9월)
역사
주요 이슈
이슈 | 설명 | 예시 |
---|---|---|
설명 불가능성
(Unexplainability) |
인공지능의 판단 근거를 인간이 확인할 수 없음 |
|
책임 귀속 | 인공지능의 잘못은 누구의 잘못인지에 대한 모호성 |
|
편향된 판단 | 인간의 고정관념에 의한 인공지능의 편향된 결과 |
|
일자리 감소 | 인공지능의 대체로 인한 인간의 일자리 감소 |
|
인공지능 윤리의 구성[1]
- 인공지능 자체의 윤리
- 인공지능 설계자나 제작자의 윤리
- 인공지능 이용자의 윤리
관련 개념
주요 사례
국내
주요 국가 인공지능 윤리
- 유럽로봇연구 네트워크 로봇윤리 로드맵(2006)
- EU, 신뢰할 수 있는 AI를 위한 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹)
- 산업자원부 로봇윤리헌장(2007)
- 일본, 총무성 인공지능 윤리 가이드라인
- 일본, 인간 중심의 AI 원칙(‘19.3, 통합혁신전략추진회의)
기업의 인공지능 윤리
- 마이크로소프트 인공지능 개발 원칙
- 미국 AI 활용에 대한 구글 원칙(’18.6, 구글)
- IBM 인공지능 일반 윤리
- 카카오 AI 알고리즘 윤리 헌장
학회 및 협회, 국제 기구의 인공지능 윤리
- OECD, AI 권고안('19.5, OECD 위원회)
- G20 정상선언문으로 발표(19.6)
- 아실로마 인공지능 원칙
- IEEE, 윤리에 기초한 인공지능 설계(Ethically Aligned Design)(19.12)
- 유네스코, 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)
기타
- 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
- 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
- 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
- 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
각주
- ↑ 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)