9.인공지능 윤리(중급) Part 2. AI 윤리 문제 사례

Part2. aI 윤리 문제 사례

① 알고리즘 도덕성 문제 : 내 여자친구가 고릴라?

  인공지능의 알고리즘이 갖는 불완전성과 내재적 모순으로 인해 우리 주변에 다양한 위협이 발생할 수 있습니다. 알고리즘의 도덕성 문제 사례를 살펴봅시다.

캡처
여자친구의 사진을 고릴라로 분류한 AI (출처: 픽사베이)

  구글 자동인식 프로그램이 뉴욕의 한 흑인 여성을 고릴라로 자동 분류하였습니다남자친구였던 프로그래머 재키 앨신은 이 사실을 트위터에 공개적으로 비판하고 구글에서는 공개적으로 사과 후 긴급 패치로 문제를 해결했습니다

② 로봇의 판단 오류 - 난 위험인물이 아냐!

  위에서 언급한 인공지능의 알고리즘이 갖는 불완전성과 내재적 모순으로 인해 나아가서는 인명 피해까지 일어날 수 있습니다. 인공지능과 로봇의 판단 오류로 일어난 인명 피해 사고를 알아봅시다. 

사람을 공격한 AI (출처: 픽사베이)

  2016년 7미국 캘리포니아 쇼핑센터에서 보안 로봇이 16개월 유아를 공격하는 일이 발생했습니다, 2013중동 예멘에서 결혼식장으로 향하던 차량이 갑작스러운 무인기 공격을 받아 10명이 사망하는 일이 발생했습니다(사진 출처 : 픽사베이)

③ 윤리적 딜레마 : 누구를 살리냐, 그것이 문제로다

  인공지능이 인간이 하던 일의 많은 부분을 대체하고 있습니다. 이에 따라 그동안 인간에게 있었던 행동의 책임을 인공지능에게도 부여할 수 있을 것인지가 논의되고 있습니다.  인공지능에게 의사결정권을 얼마나 부여하고 또 어떻게 인간 사회의 가치와 법칙을 존중하도록 설계할 것인가가 핵심 화두로 떠오르고 있는 것입니다. 자율주행차가 가지는 윤리적 딜레마를 살펴보며 생각해봅시다.

그림3
자율주행차의 딜레마 (출처: 픽사베이)

  자율주행차는 돌발 위험 발생 시 자기희생’ 모드와 자기보호’ 모드 중 선택의 딜레마에 빠집니다자기희생 모드는 탑승자가 사망하더라도 다수의 보행자를 보호하고자기보호 모드는 탑승자의 보호를 위해 다수의 보행자를 칩니다만약 자기희생 모드를 법적으로 강제할 경우 아무도 자율주행차를 이용하지 않을 것입니다

④ 프라이버시 문제 : 스피커는 모든 것을 알고 있다

  현재 상용화되고 있는 인공지능 개인비서 서비스(구글의 알로(Allo), 아마존 에코(Echo), 에이수스 젠보(Zenbo) 등)는 사용자의 연락처, 대화 내용, 집안 모습 등 개인정보에 대한 접근 및 저장이 필요한 서비스입니다. 비서인 동시에 감시자가 될 가능성이 존재하는 것이죠.  해킹됐을 경우 사용자의 상세한 개인정보가 실시간으로 유출되는 심각한 프라이버시 침해 가능성이 있습니다. 인공지능의 프라이버시 문제 사례를 살펴봅시다.

개인정보에 접근하는 AI (출처: 픽사베이)

  2015년 11미국 아칸사스주에서 일어난 살인사건을 수사하는 경찰은 용의자가 보유하고 있는 아마존 에코 음성비서인 알렉사의 녹음자료를 요청했습니다서비스를 위해서 개인정보를 제공할 수밖에 없는 인공지능 서비스지만 개인정보가 실시간으로 유출되고 있다는 사실!

⑤ 사용자의 윤리 : AI가 범죄와 살상에?

인공지능 기술이 사회 혼란 및 범죄, 전쟁 등 악의적인 목적으로 사용될 가능성에 대한 문제가 있습니다. 또, 일부 사람들이 인공지능 채팅봇에게 대화 내용을 악의적으로 학습시키는 조직적 공격이 발생할 수 있습니다. 실제로 인공지능 채팅봇이 부적절한 말을 학습하여 사회에 물의를 일으켰던 사례를 살펴봅시다.充气帐篷
챗봇
부적절한 말을 학습한 AI (출처: 픽사베이)

  백인 우월주의자와 여성무슬림 혐오자들이 MS 인공지능 채팅봇 테이에게 인종성차별 발언을 학습시킨 일이 발생했습니다테이는 대량학살을 지지한다”, “깜둥이들을 증오한다.” 등의 부적절한 말을 쏟아냈습니다미국 댈러스에서는 2016년 7총격사건 제압에 폭탄 로봇이 사용되면서 경찰에 의한 킬러로봇의 공식적인 사용 선례를 남긴 사건이 있었습니다

⑥ 책임성 문제 : AI에게 책임이 있을까?

  인공지능과 로봇이 법적·도덕적 책임이 부여된 의사결정권을 행사하는 것에 대한 우려와 책임소재 관련 논란이 떠오르고 있습니다. 또 자율적 의사결정을 통한 행위를 수반하는 인공지능/로봇의 법적 지위와 행위 책임에 대한 논의가 진행되고 있습니다. 다음 사례를 통해 AI에게도 책임이 있는 것인지 생각해봅시다.

surgery-1807541_1920
AI의 책임성 문제 (출처: 픽사베이)

  인천 길병원이 IBM의 왓슨을 도입한 이후 진료를 수행한 85명의 환자들은 의료진의 처방과 왓슨의 처방이 다를 경우 대부분 왓슨의 처방을 선택했다고 합니다의사가 내린 진단 결과와 배치되는 인공지능의 진단 결과를 수용하는 게 맞는 걸까요? 또외국에서는 자율적 판단을 수행하는 인공지능에 대하여 행위자로서의 법적 존재를 인정하기 시작했습니다미국 도로교통안전국은 구글의 자율주행 시스템이 사람처럼 연방 법률에 규정된 운전자로 볼 수 있다고 판단했습니다.

⑦ 인간 고유성 문제 : 인공지능 화가와 작가?

  인공지능의 창작물로 인한 인간 고유의 영역 침해에 대한 우려와 인격화된 인공지능/로봇으로 인한 가치 혼란 문제가 떠오르고 있습니다. 인공지능 화가, 작곡가, 소설가 등장으로 인간의 창의력, 통찰력 등 고유의 영역을 침범하고 있을 뿐 아니라 예술 작품의 가치 질서를 흔드는 문제까지 발생하고 있습니다. 인간 고유성의 관한 문제 사례를 살펴봅시다.

rembrandt-van-rijn-67747_1920
렘브란트의 그림 (출처: 픽사베이)

  MS, ING, 델프트 기술대, 네덜란드의 두 박물관이 공동으로 진행한 넥스트 렘브란트 프로젝트를 통해 렘브란트의 화풍을 모방해 그대로 작품을 제작하는 기술을 개발했습니다. 또 인공지능 작곡가 ‘보이드’가 등장하고 인공지능이 쓴 소설이 일본 문학상 1차 심사를 통과하는 데 성공했습니다. 

⑧ 인공지능 포비아 : 인공지능이 지배하는 세상

  초인적 지능이 탑재된 기계가 인간을 대체하거나 인간의 삶을 제어할 수 있다는 공포감과 거부감이 등장하고 있습니다. 과거 SF 영화에서 주로 등장하는 인공지능은 인간의 통제를 벗어나 위협과 막연한 공포감이 계속돼왔는데, 최근 알파고와 같이 인간의 능력을 훨씬 초월하는 인공지능의 실체가 드러나면서 공포감은 구체화 되고 있습니다. 더 나아가 인공지능이 기존의 일자리를 대체할 것이라는 전망이 등장하면서 우려와 공포는 점차 증가하고 있습니다. 이러한 문제 사례를 살펴봅시다.

인간의 일자리를 대체하는 AI (출처: 픽사베이)

  옥스퍼드 마틴 스쿨(Oxford Martin School)에서는 컴퓨터화될 위험에 처한 일자리 수와 일자리 대체 확률 등을 분석한 결과 전체 미국 고용의 약 47%가 컴퓨터화될 위험에 처해 있다고 발표했습니다. 또 2016년 2월 미국 워싱턴에서 개최된 미국 고등과학협회(AAAS) 연례 미팅에서 모셰 바르디 교수는 “200년 전 산업 혁명이 시작된 이래 우리가 목격했던 것과 전혀 다른 작업장 혁명이 로보틱스와 인공지능에 의해 빚어질 것”이라고 전망했습니다. 

책임성은 인공지능과 로봇이 내린 판단과 행동에 대해 누가 어떻게 책임을 질 것인가에 관한 것입니다.

Please select 2 correct answers

본문을 잘 살펴보세요.
Show hint
Correct! Wrong!

책임성은 인공지능과 로봇이 내린 판단과 행동에 대해 누가 어떻게 책임을 질 것인가에 관한 것입니다.

가천대 길병원은 국내 의료기관 중 최초로 IBM의 인공지능시스템 왓슨을 도입하였습니다. 도입 이후에 인간 의료진과 왓슨의 의견 일치율은 항상 일치합니다.

본문을 잘 읽어보세요.
Show hint
Correct! Wrong!

도입 이후에 인간 의료진과 왓슨의 의견 일치율은 점점 올라가고 있지만, 여전히 의료진의 처방과 왓슨의 처방이 다른 경우가 발생하고 있습니다.

모럴머신(Moral Machine)은 자율주행 자동차에서 발생하는 윤리적 딜레마에 관한 자료를 수집하는 사이트입니다.

미국의 MIT 대학교 미디어랩에서는 모럴머신(Moral Machine)이란 웹사이트를 만들어 자율주행 자동차에 대한 윤리적 판단에 대한 사례를 수집하고 있습니다.
Show hint
Correct! Wrong!

모럴머신(Moral Machine)은 자율주행 자동차에서 발생하는 윤리적 딜레마에 관한 자료를 수집하는 사이트입니다.