본문 바로가기
인공지능

[AI윤리]인공지능 윤리 가이드 라인, 해외 동향 알아보기

by y은광 2024. 6. 26.
728x90

인공지능 기술의 발전으로 인간의 지식과 예측, 제어를 뛰어넘는 예기치 않은 상황이 우리의 실 생활에서 발생하고 있습니다. 이처럼 윤리적 문제가 확산하면서 인공지능 윤리 가이드라인의 필요성이 강조됩니다. 이에 따라 국제기구와 각국 정부 차원에서 다양한 윤리 원칙을 제시하고 있습니다.

인공지능 윤리
<인공지능 윤리 가이드라인>

 

1. 인공지능 윤리 가이드 필요성

 

인공지능의 자율성과 지능이 발전함에 따라 인간이 제작한 단순한 부산물이 아닌 인공지능 도덕 행위자로 간주하고 윤리적 법적 책임에 대한 고려가 필요합니다. 예를 들어 로보 어드바이저 투자손실, 자율주행차 사고, 인공지능의 편견, 인종차별 등 사례를 통해 인공지능 윤리 가이드라인 구축을 할 수 있습니다. 또한 영화나 드라마 등을 통해 상상할 수 있는 미래 사회의 인공지능 관련 윤리적 문제도 고민해봐야 할 것입니다. 

 

2.  인공지능 윤리 가이드 배경

트롤리 딜레마, 구글 포토의 고릴라 사건, MS '테이' 사건, 이루다 사건 등을 통해 인공지능 윤리적 문제가 드러났습니다. 이에 따라 인공지능 윤리적 고려가 필요한 인식이 커지며, EU, OECD 등 국제기구에서 인공지능 윤리 가이드라인을 제시하고 있습니다.

 

3. 해외 인공지능 가이드라인을 알아야 하는 이유

우리가 해외 인공지능 윤리 가이드라인을 알아야 하는 이유는 국제기구에서 제시하는 인공지능 윤리 가이드라인은 글로벌 표준 수립에 기여하고 입습니다. 각국의 문화적 배경과 가치관 을 반영하고 있으며 이를 이해하고 인공지능 기술 개발이나 활용 시 다양성을 고려할 수 있습니다. 국내 기업과 연구기관이 인공지능 개발 시 참고할 수 있는 가이드라인을 제공할 수 있습니다. 해외 사례를 통해 인공지능 윤리에 대한 이해를 높이며, 개발자, 사용자 모두에게 윤리 교육의 필요성을 알릴 수 있습니다. 이에 따라 EU, 독일, 미국, 영국, 일본의 인공지능 윤리 가이드라인을 알아보겠습니다.

 

▶ EU 

유럽연합은 인공지능 윤리에 대한 포괄적인 접근을 추구 합니다. 가이드라인 AI의 핵심 가치와 원칙에 대한 정보를 제공하기보다는 인공지능의 불확실성을 제거하고 신뢰할 수 있는 AI 시스템의 구체적인 구현과 운영 지침을 제공 하는데 초점을 두었습니다. 또한 EU의 접근 방식은 수준 높은 개인정보 보호와 소비자 권리 보호를 강조하며AI 시스템의 신뢰성을 높이는데 중점을 둡니다.

 

2007년 유럽로봇연구연합(EURON)의 로봇 윤리 로드맵 인간과 로봇을 연구하는 EURON은 로봇이 어떠해야 한다가 아닌 로봇 개발자를 위한 가이드 제공

로봇에 선행하는 윤리 원칙 EURON의 로봇 윤리 13원칙
인간의 존엄과 인간의 권리

평등, 정의, 형평

편익과 손해

문화적 다양성을 위한 존중
차별과 낙인화 금지

자율성과 개인의 책무성

주지된 동의

프라이버시
기밀성 , 지구상의 생물에 대한 책무

연대와 협동

사회적 책무

이익의 공유

 

2017년 OECD Digital Economy Outlook에서 인공지능 알고리즘의 규범적 대응 원칙 및 정책 방향을 제시했으며, 2019년 5월 인공지능 권고안을 발표 

OECD Draft Council Recommendation on AI
Section 1 : Principles for responsible stewardship of trustworthy AI

1.1 Inclusive growth, sustaionable development and well-being

1.2 Human-centred values and faimess

1.3 Transpareancy and explainability

1.4 Robustness, security and safety

1.5 Accountability
Section 2 : National policies and international co-operation for trustworthy AI

2.1 Investion in AI research and development

2.2 Fostering a digital ecosystem for AI

2.3 Shaping an enabling policy environment for AI

2.4 Building human capacity and preparing for labour marker transformation

2.5 International cooperation for trustworthy AI

 

2021년 4월 21일 인공지능 규제 법안 초안을 발표했습니다. 이 법안은 AI 기술의 안정성과 신뢰성을 보장하고 유럽 내에서 AI 혁신을 촉진하기 위한 목적으로 마련되었습니다. 

2021년 AI 규제 법안

1. 위험 기반 접근(Risk-Based Approach) 
  • 고위험(high-risk) AI 시스템 - 사용자가 신뢰할 수 있도록 특정 요구사항을 충족해야 함. 예를 들어, 의료, 교통, 법 집행 등 중요한 분야에서 사용하는 AI 시스템은 엄격한 테스트와 인증 과정을 거쳐야 함.
  • 중간위험(medium-risk) AI 시스템 - 투명성 요구사항을 충족해야 함. 예를 들어, 챗봇과 같은 시스템은 사용자에게 AI와 상호작용하고 있음을 명확히 밝혀야 함.
  • 저위험(low-risk) AI 시스템 - 기본적인 규제 요구사항만 충족하면 됨.

2. 금지된 AI 관행(Prohibited AI Practices) - 다음과 같은 AI 관행은 사용이 금지됨 
  • 사람의 행동을 조작하거나 착취하는 AI 시스템
  • 사회적 점수를 매겨 사람을 평가하는 AI 시스템
  • 실시간 원격 생체 인식 시스템을 공공 장소에서 사용하여 법 집행하는 행위 (일부 예외 있음)

3. 고위험AI 시스템에 대한 요구사항
  • 데이터 및 데이터 거버넌스 - 고품질 데이터 사용과 공정성 보장
  • 기록 유지 - AI 시스템의 추적성과 감사 가능성 보장
  • 투명성 및 정보 제공 - 사용자가 AI 시스템의 기능과 한계를 이해할 수 있도록 명확한 정보 제공
  • 인간 감독 - AI 시스템 사용 시 인간의 감독과 개입 가능성 보장
  • 안전성, 사이버 보안 및 견고성 - AI 시스템의 안전성, 보안성, 견고성 보장

4. 집행 및 감독
  • 유럽 인공지능 위원회(European Artificial Intelligence Board): 회원국 간 협력과 일관된 집행을 위한 기관
  • 국가 차원의 감독 기관: 각 회원국은 AI 규제를 집행하고 감독하는 역할을 수행할 기관을 지정해야 함.
  • 제재 및 벌금: 규제 위반 시 벌금 부과 가능 (GDPR의 벌금 수준과 유사함)

5. 혁신 촉진
  • 규제 샌드박스: 혁신적인 AI 기술의 테스트와 개발을 지원하기 위해 규제 샌드박스를 제공
  • SME 지원: 중소기업(SME)이 규제 요구사항을 충족할 수 있도록 지원

 

독일

독일은 EU 차원의 "인공지능 규제 프레임워크(AI Act)" 마련에도 적극적으로 참여하고 있습니다. EU의 AI 규제 프레임 워크는 AI 시스템의 위험 수준에 따른 규제 체계를 제시하고 있습니다. 독일은 이 프레임 워크를 바탕으로 자국의 AI 윤리 법제화를 추진하며, 투명성, 공정성, 안전성인간 중심성 책임성 등의 원칙을 중심으로 AI 규제 체계를 마련하고 있습니다. 이는 EU차원의 AI 규제 프레임워크와도 연계되어 진행되고 있습니다.

 

AI 윤리 위원회를 통해 구체적인 가이드라인을 제시하고 있으며 AI 기술이 인간의 권리를 침해하지 않도록 인간의 존엄성과 자율성을 보호하는데 중점을 두고 있습니다.

 

▷ 2017년 독일 연방 교통 디지털인프라부는 '자율주행 자동차 윤리 가이드라인을 세계최초로 제시

독일 자율 주행기술 윤리지침의 주요 내용
1. 인간의 생명 보호가 항상 최우선 순위이며, 사고가 예상된다면 다른 차량, 재산을 파괴하고 동식물 등 다른 생물에 피해를 주더라도 인간의 생명을 구하고 부상을 피해야 한다.

2. 사고를 피할 수 없는 경우, 자율주행시스템은 생명에 대한 가치를 판단하고 선택하지 말아야 한다. 아이을 살리기 위해 노인을 죽이는 것과 같은 일은 할 수 없다. 연령, 성별, 인종, 장애 등에 대한 판단을 해서는 안된다.

3. 모든 것은 기록되어야 한다. 사고 발생 시 책임 소재가 확실할 수 있도록 블랙박스 같은 형태로 모든 데이터가 저장되어야 한다. 물론 운전자의 신원도 명확히 확인되어야 한다.

4. 대기업이 사용자의 개인 정보를 불법으로 판매하거나 악용하는 것을 차단하기 위해서 운전자가 차량에서 수집되는 개인 정보를 완벽하게 통제할 수 있어야 한다.

 

  2021년 독일은 AI 윤리 법제화 논의하기 시작하였으며 AI 기술 개발과 활용에 대한 규제를 마련하고자 했습니다.

AI 윤리 법제화의 주요 원칙
투명성 - AI 시스템의 의사결정 과정과 결과에 대한 투명성 보장

공정성 - AI 시스템이 편향성 없이 공정하게 작동하도록 보장

안전성 -AI 시스템의 안전성과 신뢰성 확보 인간

중심성 - AI 시스템이 인간의 가치와 권리를 존중하도록 설계

책임성 - AI 시스템의 오작동 및 부작용에 대한 책임 규명

 

미국

미국은 연방 정부 차원에서 AI 윤리 가이드라인을 제정하며, NIST(국립표준기술연구소)를 통해 AI 윤리 프레임워크를 개발하고 있습니다. 미국의 AI 윤리 가이드라인은 주로 혁신과 산업 경쟁력 강화에 중점을 두고 있습니다. AI 기술 발전을 촉진하면서도 윤리 문제를 해결하는 균형 잡힌 접근을 추구합니다.

 

▷ 미국 전기전자기술자 협회(IEEE)는 2016년 아실로마 인공지능 원칙을 발표하였고, 2019년 국제표준화를 목표로 2016년과 2017년에 발표한 'Ethically Aligned Desing업데이트 중입니다.

아실로마 인공지능 원칙 23조항
연구관련 쟁점 1. 연구목표 2. 연구비 지원 3. 과학정책 연계 4. 연구 문화 5. 경쟁회피
윤리와 가치 6. 안전 7. 실패의 투명성 8. 사법적 투명성 9. 책임성 10. 가치 일치 11. 인간의 가치 12. 개인정보 보호 13. 자유와 프라이버시 14. 이익의 공유 15. 번영의 공유 16. 인간통제 17. 사회 전복 방지 18. 인공지능 무기 경쟁
장기적 이슈 19. 역량 경고 20. 중요성 21. 위험성 22. 자기 개선 순환 23. 공동의 선

 

Ethically Aligned Design 일반원칙
1. 인권

2. 복지

3. 데이터 기관

4. 효과성
5. 투명성

6. 책임성

7. 오용에 대한 인식

8. 개발자의 능력

 

2019년 미국 하원 인공지능의 윤리적 발전 결의안 10가지 목표를 제시

미국 하원 인공지능의 윤리적 발전 결의안 : 인공지능 개발 목표
1. 산업계, 정부, 학계 및 시민사회가 참여

2. 인공지능 시스템, 프로세스의 투명성 및 설명가능성

3. 소외된 계층이나 여성에게 권한을 부여하는 것을 도움

4. 개인정보보호와 정보 프라이버시 보장

5. 의미있는 일과 삶을 찾을 수 있는 커리어 기회 확대

6. 모든 자동화된 의사결정을 위한 책임 및 감독

7. STEM, 사회 과학, 인문학의 평생 학습

8. 기술 서비스 및 혜택의 공정성

9. 안전하고 유익한 인공지능에 관한 학문적 연구

10. 현재와 미래의 안전, 보안 및 인공지능 시스템 제어

 

2023년 인공지능 윤리 가이드 5가지 주요 원칙으로 AI 기술의 안전하고 윤리적인 활용을 위한 기준을 제시하고 연방정부와 민간기업은 이 원칙을 바탕으로 AI 시스템을 개발하고 운영하고 있습니다. 또한 미국 정부는 AI 윤리 가이드라인 법제화를 검토 중이며, 일부 주 정부에서도 관련 법안을 발의하고 있습니다. 이를 통해 AI 기술의 안전성과 신뢰성을 더욱 강화할 계획입니다.

 

2023년 인공지능 윤리 가이드 5가지 주요 원칙

1. 안전성과 신뢰성 
  • AI 시스템이 안전하고 신뢰할 수 있도록 개발되어야 합니다.
  • AI 시스템의 오작동이나 예기치 않은 결과로 인한 피해를 최소화해야 합니다.

2. 투명성과 설명가능성
  • AI 시스템의 의사결정 과정이 투명하고 설명 가능해야 합니다.
  • 사용자들이 AI 시스템의 작동 원리를 이해할 수 있어야 합니다.

3. 프라이버시 보호
  • AI 시스템 사용 시 개인정보 및 프라이버시가 보호되어야 합니다.
  • 개인정보 수집 및 활용에 대한 동의와 투명성이 보장되어야 합니다.

4. 공정성과 비차별성
  • AI 시스템이 공정하고 차별적이지 않아야 합니다.
  • 성별, 인종, 나이 등에 따른 편향이 발생하지 않도록 해야 합니다.
 
5. 인간 중심성
  • AI 시스템이 인간의 가치와 권리를 존중해야 합니다.
  • AI 시스템이 인간의 삶을 향상시키고 인간의 통제 하에 있어야 합니다.

 

 영국

영국은 AI 윤리에 대한 명확한 가이드라인을 제시하며 AI 의사결정의 투명성과 책임성을 강조하고 AI 기술의 신뢰성을 강화합니다. 영국정부는 AI 윤리 및 안전 센터를 설립하여 AI윤리를 감독하고 있습니다.

 

  2016년 영국의 국책연구기관인 공학, 물리학 연구협의회(EPSRC)에서 로봇원칙(Principles of robotics) 발표

EPSRC 로봇원칙
1. 로봇은 국가 안보를 이유로 무기로 설계되어서는 안됨

2. 로봇은 프라이버시를 비롯해 기존 법을 준수하도록 설계되고 운영되어야 함

3. 로봇은 다른 제품과 마찬가지로 안전하게 설계되어야 함

4. 로봇별로 법적 책임을 질 수 있는 사람이 필요 함.

 

  2022년 영국 대학들의 생성형 AI 윤리 원칙 영국 24개 RUssell Group 대학들이 공동으로 생성형 AI 윤리 원칙을 발표했습니다. 교육 현장에서의 윤리적 AI 활용, 학술 무결성 보장, 모범 사례 공유 등을 강조했습니다. 영국 정부의 AI 윤리 가이드라인과 맥락을 같이하며, AI 기술의 발전과 활용에 있어 투명성, 공정성, 안전성, 책임성 등의 원칙을 중요하게 다루고 있습니다.

2022년 생성형 AI 윤리 원칙
1. 투명성과 설명가능성 -생성형 AI 시스템의 작동 원리와 결과에 대한 투명한 공개 및 설명

2. 공정성과 비차별성 - AI 시스템이 편향성 없이 공정하게 작동하도록 보장

3. 안전성과 신뢰성 - AI 시스템의 안전성과 신뢰성 확보를 위한 지속적인 모니터링 및 개선

4. 인간 중심성 - 교육 현장에서 AI 가 인간의 역할을 대체하지 않고 보조하는 것을 보장

5. 학술 무결성 보장 - AI 활용이 학술 연구의 진실성과 윤리성을 해치지 않도록 관리

6. 모범 사례 공유 - 생성형 AI 활용에 대한 모범 사례와 교훈을 공유하여 발전 도모

 

 일본

일본은 인간중심의 AI 개발을 강조하며 AI 사회 원칙을 통해 AI 기술이 사회적 경제적 가치 창출에 기여하도록 하는데 중점을 두고 있습니다. AI 기술이 인간 중심적 접근, 공정성과 투명성, 프라이버시 보호, 안전성, 책임성 등을 강조하고 AI 기술이 긍정적인 사회적 영향으로 발전하도록 유도합니다. 또한 AI 개발자와 사용자에게 중요한 치침을 제공하며, 윤리적이고 책임 있는 AI 기술의 발전을 촉진합니다.

 

1942년 아시모프의 로봇원칙 소설 런어라운드에서 로봇 3원칙 처음제안, 1985년 소설 '로봇과 제국'에서 로봇 0원칙을 추가(24. 5. 27. 이전 포스팅 참고)

아시모프의 로봇 원칙
0원칙 로봇은 인류에게 위해가 가해지는 것을 방치하여서는 안 된다.

1원칙 로봇은 인간에게 해를 끼치거나, 아무런 행동도 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.

2원칙 제1원칙에 위배되디 않는 한 로봇은 인간의 명령에 복종해야한다.

3원칙 제1, 2원칙에 위배되지 않는 한 로봇은 자신을 보호해야 한다.

 

2004년대 중반 이후 로봇의 활용 분야가 다양해지고, 로봇과 사람의 공존에 대한 관심이 높아짐에 따라 일본 후쿠오카에서세계 로봇 선언 발표

후쿠오카 세계 로봇 선언
차세대 로봇은 인간과 공존하는 파트너가 될 것이다.

차세대 로봇은 인간을 육체적으로 그리고 정신적으로 보조할 것이다.

차세대 로봇은 안전하고 평화로운 사회 구현에 기여할 것이다.

 

2019년 인간 중심의 AI 사회원칙과 AI 전략 2019를 발표하여 AI 기술 발전을 통한 사회문제 해결을 목표로 하고 있습니다 AI Ready 사회를 준비하기 위해 기본이념부터 실질적인 개발 단계까지 인공지능 윤리적 검토를 다각도로 수행 중입니다. 개인정보보호·공정경쟁·교육 등 인간중심의 원칙을 기초로 국가 차원에서 체계적으로 준비합니다.

AI 개발 원칙 AI 사회 원칙
책임성
윤리, 프러이버시 존둥
안전성
연계성
투명성
이용자 지원성
보안성
통제 가능성
인간 중심의 원칙
공정 경쟁 확보의 원칙
교육/교양의 원칙
공정성, 책임 및 투명성의 원칙
개인정보 확보의 원칙
혁신의 원칙
보안 확보의 원칙

 

2022년 일본 인공지능학회는 인공지능 연구자들의 윤리 지침을 제정했습니다. 인공지능이 인간 사회에 유익하게 활용되도록 하고, 인공지능 연구자들이 윤리적으로 행동할 것을 요구합니다.특히 인권 존중, 문화 다양성 고려, 악용 방지, 사회와의 소통 등을 강조하고 있습니다

2022년 일본 인공지능학회의 인공지능 윤리 원칙
1. 인류의 평화, 안전 복지, 공공의 이익 증진
- 인공지능 기술이 인류의 평화 안전, 복지, 공공의 이익을 증진시키도록 노력해야 합니다.

2. 인권 및 문화 다양성 존중 - 인공지능 기술 개발 및 활용 시 인권을 존중하고 문화적 다양성을 고려해야 합니다.

3. 인공지능의 악용 방지- 인공지능 기술이 악용되지 않도록 예방하고 관리해야 합니다.

4. 사회와의 대화와 윤리관 발전 - 인공지능 연구자들은 사회와 지속적으로 대화하며 윤리관을 발전시켜 나가야 합니다

 

6. 결론

인공지능 윤리 가이드라인은 다양한 국제기구와 국가에서 지속해서 발표되고 있으며, AI 기술의 안전하고 윤리적인 사용을 보장하기 위해 중요한 역할을 하고 있습니다. 이러한 가이드라인은 AI 개발자, 연구자, 정책 입안자들이 윤리적 기준을 준수하며 AI 시스템을 개발하고 운영하는 데 중요한 지침을 제공합니다. 우리는 이러한 국제 동향을 참고하여 우리에게 맞는 사회적, 법적 환경 인공지능 윤리 가이드라인을 마련하는 것이 중요하다고 생각합니다.

 

출처 : 한국정보화진흥원, 한국저작권위원회, ETRI, 한국과학창의재단, KISTI 인공지능 윤리

 

감사합니다

 

2024.05.27-반려로봇을 사회적 구성원으로 받아들일 수 있는가, 반려로봇 장례식

 

반려로봇을 사회적 구성원으로 받아들일 수 있는가, 반려로봇 장례식

얼마 전 방송에서 미우새를 시청했습니다. 김승우가 쪼꼬미라는 리쿠 반려로봇과 대화하면서 적적함을 달래 보는 장면을 보았습니다. 반려로봇 쪼꼬미는 생각보다 똑똑하며 걷고, 말하며, 정보

yej2413.com