Ⅸ. AI 윤리 – 3. 윤리적 인공지능 – 공정성

지구촌 곳곳에서 발생하는 차별의 문제는 비인간적인 행위를 유발하는 해결해야 할 과제 중 하나입니다. 인간의 의지를 반영하여 만든 인공지능에게 차별에 관한 문제는 없을까요? 차별의 문제는 차별하지 않는 소극적인 대응이 아니라 차별을 철폐하는 적극적인 대응을 통해 없어질 수 있습니다. 그렇다면 인공지능이 이러한 차별을 없애기 위하여 가져야 할 윤리적인 모습은 무엇일까요?水上乐园设备

3. 공정성

1. 인공지능 분석 결과로 차별이 발생할 수 있을까?

공정성은 인공지능 기술이 가능한 많은 사람들에게 차별 없이 도움을 줄 수 있는지, 인공지능 기술에 의해 창출된 경제적 번영이 모든 인류의 혜택을 위해 광범위하게 공유될 수 있는지에 관한 문제입니다. 최근 인공지능이 사회적으로 차별을 하는 윤리적 문제 사례들이 발생하고 있습니다. 인공지능이 성적 편견이나 인종적 차별성이 존재하는 데이터를 학습하게 되어 물의를 일으킨 사건도 있습니다. 그런데 이처럼 입력 데이터가 원인인 경우가 아니라 알고리즘 자체가 원인이 되어 편견과 편향을 가진 인공지능 서비스가 벌어진다면 더 심각한 일이 발생할 것입니다. 인공지능의 공정성과 관련된 사례를 살펴봅시다.

2. 우리 지방의 방언을 못 알아듣는 AI 음성인식 스피커?

사람들은 AI 음성인식 스피커를 통해 편리하게 음악 감상, 정보 검색 등을 할 수 있습니다. AI 음성인식 스피커에 내장돼있는 음성비서가 인간처럼 대화하기 위해서는 AI가 자연어를 기계어로 바꾸는 과정이 필요합니다. 그런데 서비스로 제공되는 표준어를 사용하지 않는 사람들은 음성인식 기반 AI 서비스에서 차별을 받을 가능성이 있습니다. 실제로 중국 같은 경우 검색을 통해 알 수 있는 방언 수만 총 129종이 있습니다. 이 또한 공식 통계가 아니기 때문에 이보다 더 많을 수도 있습니다. 방언을 사용하는 사람들이 인공지능 서비스 이용에 이러한 어려움을 겪는다면 인공지능 기술이 과연 많은 사람들에게 차별 없이 도움을 줄 수 있다고 볼 수 있을까요?

3. 인공지능이 은행 대출 심사에서 차별적 판단을 내린다면?

최근 금융권에서도 인공지능의 활용이 확산되고 있습니다. 은행에서는 대출 심사, 상담, 채용 등 다양한 영역에서 인공지능을 활용하고 있습니다. 특히 대출 심사의 경우는 인공지능을 이용할 경우, 3분 만에 심사가 끝이 납니다. 대출이란 은행과 같은 금융기관에서 돈을 빌려주는 것을 뜻합니다. 그런데 인공지능을 이용한 대출 심사가 대출희망자의 사는 곳, 인간관계, 소피 패턴 등을 기반으로 차별적인 판단을 내릴 수 있다는 우려가 제기되고 있습니다. 이러한 차별 상황이 발생했을 때는 누가 책임을 져야 할까요?

4. 자율주행 자동차가 사람을 차별한다면?

우리는 앞서 모럴머신에 대해 알아보았습니다. 자율주행 자동차가 딜레마 상황에 맞닥뜨렸을 때 어떠한 선택과 판단을 할지에 관한 데이터를 수집하는 모럴머신에는 인공지능의 공정성에 대한 문제가 들어가 있습니다. MIT 미디어랩이 데이터 수집 결과를 분석한 결과 애완동물보다는 사람, 소수보다는 다수, 남성보다는 여성, 비만한 남자보다는 운동선수, 노숙자나 범죄자보다는 기업인원 등 사회적 지위가 높은 사람의 생명을 중요시 여기는 경향이 있었습니다. 자율주행 자동차가 내리는 판단이 비윤리적이고 차별적인 태도를 지니고 있다면 인공지능이 공정한 서비스를 하고 있다고 볼 수 없습니다.  

5. 공정성 문제는 어떻게 해결해나갈까?

인공지능 공급자는 공공의 이익에 부합하는 제품을 공급해야 합니다. 상업적 이익과 공공적 기여 사이에서 조화와 균형을 이루도록 노력해야 합니다.

인공지능 사용자는 개발된 인공지능을 활용할 때 차별하지 않고 공평하게 사용하는 비차별성 태도를 지녀야 합니다. 이용자는 인공지능 기술 및 서비스를 악의적인 목적으로 이용하지 않아야 하고, 공공의 이익을 위한 제품 개선에 참여해야 하며, 소비자 행동 원칙 준수를 일상화 해야 합니다.

Think Good AI

2014년 미국의 한 대기업에서 인력 채용을 위해 인공지능 모델을 개발, 사용하였으나 특정 성별을 차별하는 결과를 보여 폐기되는 일이 있었다. 이렇게 인공지능이 차별적, 편향적인 결과를 내놓는다면 그것이 공정한 결과인지를 판단하는 것은 누가 하면 좋을까? 그러한 일이 발생하지 않도록 어떻게 제어 및 대응할 수 있을까? 

6. 윤리적 인공지능 - 공정성 OX 퀴즈

인공지능은 성적 편견이나 인종적 차별성이 존재하는 데이터를 학습하게 되어도 차별 없는 결과를 내보낸다.

인공지능의 데이터 학습에 대해 생각해보세요.
Show hint
Correct! Wrong!

인공지능이 성적 편견이나 인종적 차별성이 존재하는 데이터를 학습하게 되면 물의를 일으킨 사건도 있습니다.

은행에서는 대출 심사, 상담, 채용 등 다양한 영역에서 인공지능을 활용하고 있습니다.

최근 금융권에서도 인공지능의 활용이 확산되고 있습니다.
Show hint
Correct! Wrong!

은행에서는 대출 심사, 상담, 채용 등 다양한 영역에서 인공지능을 활용하고 있습니다.

인공지능 개발자는 기술 개발 시 사회적 차별 요소를 배제하는 비편향성 태도를 지녀야 합니다.

윤리적 인공지능의 공정성을 떠올려봅시다.
Show hint
Correct! Wrong!

인공지능 개발자는 기술 개발 시 사회적 차별 요소를 배제하는 비편향성 태도를 지녀야 합니다.

<출처>

미래신호 탐지 기법으로 본 인공지능 윤리 이슈 – 글로벌 동향과 전망(2017, 한국정보화진흥원)

인공지능 윤리의 필요성과 국내외 동향(2017, 한국통신학회)

모럴머신 홈페이지 (www.moralmachine.net)

인천인공지능교육 표준안 및 가이드라인 연구(2020, 인천광역시교육청, 한국인공지능교육학회)