인공지능 윤리: Difference between revisions
From CS Wiki
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
[[분류:인공지능]] | [[분류:인공지능]] | ||
* | ;인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙 | ||
;* 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성 | |||
== 필요성 == | ==필요성== | ||
== 주요 이슈 == | *인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려 | ||
*의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용 | |||
*인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가 | |||
== 역사 == | |||
* | |||
==주요 이슈== | |||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! 이슈 | !이슈 | ||
! 설명 | !설명 | ||
! 예시 | !예시 | ||
|- | |- | ||
| 설명 불가능성 | |설명 불가능성 | ||
(Unexplainability) | (Unexplainability) | ||
|| 인공지능의 판단 근거를 인간이 확인할 수 없음 | ||인공지능의 판단 근거를 인간이 확인할 수 없음 | ||
|| | || | ||
* 근거를 알 수 없는 인공지능의 판단을 따라야 하는가? | *근거를 알 수 없는 인공지능의 판단을 따라야 하는가? | ||
** 인공지능에 의한 정책결정 | **인공지능에 의한 정책결정 | ||
** 인공지능에 의한 의료 행위 | **인공지능에 의한 의료 행위 | ||
* 인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성 | *인공지능 설계자/이용자의 편향된 의도가 포함되었을 가능성 | ||
|- | |- | ||
| 책임 귀속 || 인공지능의 잘못은 누구의 잘못인지에 대한 모호성 | |책임 귀속||인공지능의 잘못은 누구의 잘못인지에 대한 모호성 | ||
|| | || | ||
* 설계자의 잘못 vs 이용자의 잘못 | *설계자의 잘못 vs 이용자의 잘못 | ||
** 인공지능 로봇의 범죄 | **인공지능 로봇의 범죄 | ||
** 자율주행차의 사고 | **자율주행차의 사고 | ||
** 인공지능의 오판으로 인한 피해 | **인공지능의 오판으로 인한 피해 | ||
|- | |- | ||
| 편향된 판단 || 인간의 고정관념에 의한 인공지능의 편향된 결과 | |편향된 판단||인간의 고정관념에 의한 인공지능의 편향된 결과 | ||
|| | || | ||
* 옳고 그름을 배제한 데이터에 의한 판단 | *옳고 그름을 배제한 데이터에 의한 판단 | ||
** 여성은 남성에 비해 임금이 적다는 판단 | **여성은 남성에 비해 임금이 적다는 판단 | ||
** 흑인은 백인에 비해 범죄율이 높다는 판단 | **흑인은 백인에 비해 범죄율이 높다는 판단 | ||
|- | |- | ||
| 일자리 감소 | |일자리 감소 | ||
|| 인공지능의 대체로 인한 인간의 일자리 감소 | ||인공지능의 대체로 인한 인간의 일자리 감소 | ||
|| | || | ||
* 챗봇으로 인한 전화상담사 필요성 감소 | *챗봇으로 인한 전화상담사 필요성 감소 | ||
* 로보어드바이저로 인한 애널리스트 필요성 감소 | *로보어드바이저로 인한 애널리스트 필요성 감소 | ||
* 인슈어테크로 인한 보험설계사 필요성 감소 | *인슈어테크로 인한 보험설계사 필요성 감소 | ||
|} | |} | ||
== 인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref> == | ==인공지능 윤리의 구성<ref>윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)</ref>== | ||
* 인공지능 자체의 윤리 | |||
* 인공지능 설계자나 제작자의 윤리 | *인공지능 자체의 윤리 | ||
* 인공지능 이용자의 윤리 | *인공지능 설계자나 제작자의 윤리 | ||
*인공지능 이용자의 윤리 | |||
==관련 개념== | |||
*[[트롤리 딜레마]] | |||
*[[모랄 머신]] | |||
*[[킬 스위치]] | |||
==주요 사례== | |||
== | === 국가의 인공지능 윤리 === | ||
* [[ | |||
* [[ | *유럽로봇연구 네트워크 '''로봇윤리 로드맵'''(2006) | ||
*산업자원부 '''로봇윤리헌장'''(2007) | |||
*일본 총무성 인공지능 윤리 가이드라인 | |||
*[[아실로마 인공지능 원칙]] | |||
*[[과학기술정보통신부]], [[4차산업혁명위원회]] '''[[인공지능 윤리기준(과학기술정보통신부)|인공지능 윤리기준]]''' | |||
=== 기업의 인공지능 윤리 === | |||
*마이크로소프트 인공지능 개발 원칙 | |||
*구글 인공지능 원칙 | |||
*IBM 인공지능 일반 윤리 | |||
*카카오 AI 알고리즘 윤리 헌장 | |||
=== 학회 및 협회, 국제 기구의 인공지능 윤리 === | |||
* OECD 권고안과 G20 AI 원칙 | * OECD 권고안과 G20 AI 원칙 | ||
* | |||
=== 기타 === | |||
*'''아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙''' | |||
#로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다. | |||
#로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다. | |||
#로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다. | |||
== 각주 == | |||
<references /> |
Revision as of 07:27, 24 April 2021
- 인공지능 알고리즘이나 인공지능을 이용한 시스템, 인공지능을 이용하는 사람이 준수해야 할 보편적인 규범 및 원칙
- 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용의 방향성
필요성
- 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
- 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
- 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
역사
주요 이슈
이슈 | 설명 | 예시 |
---|---|---|
설명 불가능성
(Unexplainability) |
인공지능의 판단 근거를 인간이 확인할 수 없음 |
|
책임 귀속 | 인공지능의 잘못은 누구의 잘못인지에 대한 모호성 |
|
편향된 판단 | 인간의 고정관념에 의한 인공지능의 편향된 결과 |
|
일자리 감소 | 인공지능의 대체로 인한 인간의 일자리 감소 |
|
인공지능 윤리의 구성[1]
- 인공지능 자체의 윤리
- 인공지능 설계자나 제작자의 윤리
- 인공지능 이용자의 윤리
관련 개념
주요 사례
국가의 인공지능 윤리
- 유럽로봇연구 네트워크 로봇윤리 로드맵(2006)
- 산업자원부 로봇윤리헌장(2007)
- 일본 총무성 인공지능 윤리 가이드라인
- 아실로마 인공지능 원칙
- 과학기술정보통신부, 4차산업혁명위원회 인공지능 윤리기준
기업의 인공지능 윤리
- 마이크로소프트 인공지능 개발 원칙
- 구글 인공지능 원칙
- IBM 인공지능 일반 윤리
- 카카오 AI 알고리즘 윤리 헌장
학회 및 협회, 국제 기구의 인공지능 윤리
- OECD 권고안과 G20 AI 원칙
기타
- 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
- 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
- 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
- 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
각주
- ↑ 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)