본문 바로가기
인공지능

[AI윤리]인공지능 윤리 교육(논문 활용 위한 출처)

by y은광 2024. 6. 21.
728x90

들어가며, 필자는 직장과 가정생활을 병행하며 늦은 나이에 대학원에 입학한 만학도였습니다. 인공지능 윤리 교육을 연구하기 위하여 다양한 문헌자료를 검색하여 논문을 탈고하고 졸업했지요. 지금은 인공지능 생성기능이 발달하여 쉽게 자료를 얻고 편집할 수 있지만 불과 2, 3년 전만 해도 많은 자료를 검색하고 고민하며, 몰두하여 자료 분석하였습니다. 이에 인공지능 윤리 교육에 관한 자료를 정리하면서 또 다른 연구자를 위한 선행도구로 분석하시라 포스팅합니다.


 

 

 

인공지능 윤리 교육
<출처 :Pixabay>

 

1. 인공지능 윤리 필요성 및 정의

한국정보화 진흥원(2019)에 따르면 인공지능 기술의 발전이 고도화됨에 따라 인공지능의 긍정적인 성과와 함께 인공지능이 가져올 예상하지 못한 사회적 윤리적인 우려 확산 되었다. 기술의 불완전성 데이터의 부족 및 잘못된 학습 등으로 왜곡과 편향이 내포된 인공지능의 부정확한 판단이 인간의 삶에 부정적인 영향을 가져올 수 있기 때문에 인공지능 윤리 이슈가 부각되었다. 필자를 포함한 많은 분들이 인공지능 윤리의 필요성으로 인용한 부분입니다.

 

과학기술정보통신부(2020) 인공지능 개발과 활용 전단계에서 정부·공공기관, 인공지능 기술 개발자, 인공지능 기술을 활용한 제품서비스 공급자, 활용자 등 모든 사회 구성원이 사람중심의 인공지능 구현을 위해 고려해야 할 기본적이고 포괄적인 기준을 목표로 한다. 인공지능 윤리로 정의합니다.

  • 윤리기준 3대 원칙 - 인간 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙
  • 10대 핵심요건 - 인권보장, 프라이버시 보호, 다양성 존중, 침해금지, 연대성, 데이터 관리, 책임성, 안전성, 투명성

관계부처합동(2020) 인공지능(AI : Artificail Inelligence)은 사람의 지적 활동을 컴퓨터를 통해 구현하는 기술

 

필자(2021)는 인공지능 구현을 위해 제시한 포괄적인 윤리 기준과 규범을 모든 사회구성원이 윤리의 핵심적 가치를 균형 있게 존중하며 인공지능과 공존, 공생하기 위한 윤리적 의식으로 정의하였습니다.

 

2. 인공지능 윤리 교육

김명주(2019)

인공지능은 일종의 소프트웨어이다, 따라서 인공지능 윤리는 소프트웨어 개발자 윤리와도 어느 정도 연계성이 있다. 이에 따라 소프트웨어 개발자들에게 요구되어 온 기존 직업윤리에 대한 분석도 인공지능 윤리를 도출하는 데 있어서 직간접적 도움이 될 수 있다.

 

소프트웨어 개발자들이 준수해야 할 윤리 항목들을 보다 큰 안목에서 분류해 보면,, 소프트웨어 개발자라는 직업인으로서 사회 발전에 이바지할 뿐만 아니라, 사회 구성원으로서 보편적인 윤리와 개발자로서 특별한 책임감을 함께 갖추어야 한다. 전자를 공공성(public ness), 후자를 책무성(accountability) 이라는 원칙으로 포괄할 수 있다.

 

인공지능의 고유특성인 자율성과 지능성을 고려하여 각각 통제성(controllability)과 투명성(transparency)을 인공지능 윤리의 기본원칙으로 추가할 수 있다.

 

지능정보사회 윤리 가이드라인4대 원칙으로 공공성(P), 책무성(A), 통제성(C), 투명성(T)으로 Seoul PACT4원칙을 기반으로 개발자, 공급자,이용자 별로 유도한 윤리 가이드라인을 포괄하는 새로운 인공지능 윤리이다.

 

김효은(2020) 

인공지능에 사용되는 데이터는 설계단계에 내재한 윤리이며 그 과정에 윤리적 요소가 개입되는 내장된(embedded) 윤리의 특성을 가진다고 하였다. 소비자, 이용자는 과정에 의견을 반영하도록 하여 정보 개방 및 공유한다.

 

데이터 편향의 가능성은 크게 데이터의 대표성 문제, 학습데이터와 시험데이터의 구분 문제이며 알고리즘 편향의 원인으로는 데이터로부터 잘못된 추론을 하는 경우와 분류 오차의 경우가 있다.

 

데이터 편향의 두 종류와 알고리즘 편향의 두 종류는 인공지능이 특정 사회집단 등에 불리한 의사결정을 내릴 수 있는 요인을 제공한다 두 편향 모두 인간의 한계, 인간사회의 편견과 편향을 그대로 반영하므로 인간과 인간사회가 더 개선되는 것 또한 근본적 해결책일 수 있다. 게다가 인공지능의 빅데이터 분석 전체 절차의 5 분의 4를 데이터 전 처리가 차지하는데 이는 인간이 직접 해야 한다. 인공지능의 학습과 분석은 짧은 시간만 소요되며 그 후의 해석 또한 도메인 지식을 가진 인간의 몫이다.

 

이것이 무엇을 의미하는가? 데이터 전 처리를 하는 인간은 모델 설정과 데이터 분류라는 중요한 역할을 한다는 의미이다. 이로 인해 인간의 역할은 오히려 그 전보 다 더 커진다고 할 수 있다. 그래서 투명성(transparency)이 요구되며 설명할 수 있는 인공지능이 필요한 이유가 된다.

 

인공지능 윤리의 경우 알고리즘 설계와 데이터 선정 단계에서부터 알고리즘 편향, 데이터 편향, 투명성, 설명 가능성, 책무성, 공정성 등이 제기된다.

 

이는 이론적 요소라기보다는 현장에 있는 알고리즘 설계자, 기계학습에 데이터를 선정해서 사용해야 하는 개발자, 연구자, 공학자 등이 인공지능을 만드는 과정에서 당장 고려해야 할 공학적 요소 이기도 하다. 이렇게 실제 현장의 설계 및 개발 절차에 직접(hands-on) 구현되는 실시간적, 실천적 요소가 있다는 점 또한 기존의 컴퓨터 윤리나 공학 윤리가 주로 사후적(post-facto) 분석이거나 이론적 지침의 성격을 가진다는 점과 대조된다.

 

윤리가 이렇게 이론 차원을 넘어서서 공학 현장과 밀접한 연관을 맺고 다시 이것이 새로운 종류의 윤리 경험과 학습을 추동하게 만드는 점은 윤리가 현장에서 구현된다는 점에서 이상적인 윤리교육, 더 나아가 윤리의 발전을 추동하는 계기가 될 수 있다.

 

목광수(2020)

윤리 논의에서 결여되어 있는 AI 개발자 윤리의 중요성과 필요성을 부각하고, AI 개발자 윤리로 덕성(virtue) 기반의 모델이 적합함을 보여 이를 제안하는 것이다.

 

AI는 고정된 과학기술이 아니라 발전 노정에 있는 동적이라는 특성과 인간과의 상호작용에서 AI를 만든 인간의 삶에 지대한 영향을 끼치는 재귀적 특성이 있는 과학기술이다. 이러한 의 특성으로 인해, AI가 초래할 리스크에 대응하려는 AI 윤리는 발전 과정에 따라 제시되어야 한다는 점에서 체계적이고, 실천을 도모하는 동기부여의 구조를 가져야 한다는 점에서 기존 도덕의 형식적 특징인 인칭 2인칭 , 3인칭 관점이 통합될 필요가 있다.

 

그런데 최근에 활발하게 제시된 많은 AI 윤리 지침에 대한 메타 분석에 따르면 현재의 지침으로서의 AI 윤리 논의들은 1인칭 관점의 동기부여가 없는 3인칭 관점에만 한정되어 실질적인 윤리 실현(ethics realizing)을 도모하기에 취약하다. AI 윤리 지침 자체가 추상적이고 모호할 뿐만 아니라, AI를 개발하는 사람들에게 아무런 영향력을 행사하지 못하는 윤리 세탁(ethics washing)에 불과하기 때문이다. 이러한 한계를 보완하기 위해서는 AI 개발자들이 AI 윤리를 내면화하여 규범적으로 실천하게 할 수 있게 하는 AI 개발자 윤리가 필요한데 본 논문은 덕성 기반의 AI 개발자 윤리가 이러한 목적을 위해 효과적이라고 주장한다.

 

덕성 기반의 AI 개발자 모델은, 과학적 덕성 모델(scientific virtue model)이 그랬던 것처럼 AI 개발의 목적이 무엇인지, AI 개발자들의 전문직 덕성(vocational virtue) 이 무엇인지 그리고 이러한 덕성을 함양하기 위한 효과적인 교육 방법은 무엇인지 등의 이론 연구와 AI 개발자들과의 소통을 토대로 하는 경험 연구의 결합을 통해 실천적 차원의 모델로 구체화될 수 있다.

 

변순용, 송선영(2013)

인공지능이나 로봇을 보는 시각은 크게 네 가지로 나누어진다.

첫째 인공지능을 단순히 기계로 보는 시각이다. 이는 인공지능이 윤리적 존재가 될 수 없다는 입장이라 할 수 있다.

 

둘째 인공지능을 어느 정도 윤리적 차원을 갖는다고 보는 시각이다. 인공지능이나 로봇을 설계하고 만든 것은 인간이기 때문에 인간의 사고와 의도 의지가 담긴 인공지능이나 로봇 역시 윤리적 차원이 내재한다고 보는 입장이다

 

셋째 인공지능과 로봇을 도덕적 행위자로 보는 시각이다. 이러한 시각은 인공지능이나 로봇을 스스로 윤리적 판단과 행동을 할 수 있는 존재로 보며, 이는 최근 인공지능의 기계학습(machine learning)이나 딥러닝(deep learning)이 가능해지면서 대두된 시각이라 하겠다.

 

넷째 다소 급진적인 시각으로 인공지능을 새로운 종(species)의 진화로 보는 관점이다. 일부 로봇공학 연구자들은 강한 인공지능의 시대가 오면 인간과 인공지능이 동등한 종의 지위를 갖고 인공지능이나 로봇이 스스로 윤리적 차원을 갖게 될 것으로 전망하고 있다.

 

이상의 네 가지 인공지능에 대한 존재론적 분류는 윤리적 이슈나 문제에 대해 주체와 객체가 누구인지를 판단하는 기준을 제시해 준다.

 

3. 인공지능 윤리교육의 시사점

인공지능 시스템이 사회에 미치는 영향을 고려하고, 부작용을 최소화하기 위하여 AI 개발자와 연구자들이 윤리적 책임을 다할 수 있도록 윤리교육이 필요합니다. 이러한 인공지능 윤리 교육으로 윤리적 기준을 설정하는 데 기여합니다. 또한 AI 시스템의 투명성과 설명 가능성은 사용자가 시스템을 신뢰하고 이해할 수 있도록 하는 중요한 요소입니다. 윤리교육을 통해 이러한 측면을 강조함으로써 보다 신뢰할 수 있는 AI 시스템을 개발할 수 있습니다.

 

데이터 편향성과 차별 문제를 해결하기 위해서, 인공지능시스템이 사용하는 데이터의 윤리적 수집, 처리, 사용에 대한 교육이 필요합니다. 이것은 공정한 AI 시스템을 구축하는 데 기여합니다.

 

개인의 프라이버시를 보호하기 위한 윤리적 기준과 법적 규제를 교육함으로써, AI 기술이 개인의 정보를 보호하고 악용되지 않도록 할 수 있습니다. 또한 AI 기술이 공공의 이익을 위해 사용되고, 사회적 책임을 다할 수 있도록 교육이 필요합니다 이러한 교육들이 인공지능 기술이 사회적 문제를 해결하고 긍정적인 영향을 미칠 수 있도록 하는 데 중요한 역할을 합니다

 

결론 

선행연구에서 본 인공지능 윤리교육은 인공지능 윤리의 중요성과 구체적인 실천 방안을 제시하고 있습니다. 투명성, 설명 가능성, 데이터 윤리, 프라이버시 보호, 사회적 책임, 윤리적 설계, 그리고 법적 정책적 프레임워크는 모두 AI 기술이 윤리적으로 사용될 수 있도록 하는 핵심 요소들입니다. 이러한 시사점들은 AI 기술의 발전과 함께 반드시 고려되어야 할 중요한 기준들을 제시하고 있습니다

인공지능 윤리교육은 AI 기술의 책임 있는 사용과 발전을 위해 필수적이며 이를 통해 사회적 신뢰를 구축하고, 공정하고 윤리적인 AI 시스템을 구현할 수 있습니다.


 

나오며, 필자는 어려운 주제를 조금이나마 쉽게 알아 갈 수 있도록 한 김명주와 김효은의 인공지능 윤리교육에 영향을 받았습니다. 심심한 감사의 말씀드립니다. 이외에도 인공지능 윤리교육에 관한 훌륭한 자료들이 많이 있습니다. 누군가 지금 인공지능 윤리 논문을 작성하고 계신다면 끝까지 작성하시고 탈고하시길 응원합니다. 그대들이 최고입니다.

 

 

감사합니다.