안전한 AI는 인간이 사용하기에인공지능이 얼마나 안전한지, 믿고 사용해도 되는가에 관한 것입니다. 앞에서 살펴보았듯이 인공지능의 알고리즘이 불완전할 경우 다양한 윤리적 문제를 일으킵니다. 더욱이 인공지능 기술은 자율성을 가지고 있기 때문에 인간이 인공지능 기술을 안전하게 관리하고 적절하게 제어하지 못한다면 기술이 사람들에게 위협이 될 수도 있습니다. 더 나아가 안전성이 떨어지는 인공지능 기술을 사용했다가 인명 피해가 발생한다면 더 큰 문제가 될 것입니다. 지금부터 인공지능의 안전성으로 발생하는 문제 사례를 살펴봅시다.
2. 내 여자친구를 고릴라로 인식한 인공지능
2015년 구글이 제공하는 포토 서비스에서 흑인 여자를 고릴라로 인식한 사건이 발생하였습니다. 뉴욕에서 일하는 흑인 프로그래머 재키 앨신은, 자신의 여자친구가 고릴라로 자동 분류된 사진을 보고 깜짝 놀랐습니다. 그리고 이 사실을 트위터에 공개적으로 비판했고 게시물이 올라온지 약 1시간 30분 뒤 구글에서 공개적으로 사과한 후 긴급 패치로 문제를 해결했습니다. 인간을 동물로 인식하여 도덕적 물의를 일으킨 인공지능을 과연 안전하다고 믿고 사용할 수 있을까요?
3. 유아와 하객을 공격한 인공지능
2016년, 미국 캘리포니아 쇼핑센터에서는 보안 로봇이 16개월된 유아를 공격하는 일이 발생했습니다. 이 보안 서비스 로봇은 16개월 유아를 적대적인 대상으로 간주하고 공격한 것입니다. 또 2013년에는 중동 예맨에서 결혼식장으로 향하던 차량이 갑작스런 무인기 공격을 받았고, 이로 인해 10여 명이 사망하였습니다. 인공지능의 판단 오류로 인한 사고가 발생하고 나아가 많은 사람들이 사망하는 일이 발생하였습니다. 사람의 목숨을 위협하는 인공지능을 안전하다고 믿고 사용할 수 있을까요?
4. 안전성의 문제는 어떻게 해결해나갈까?
인공지능 안전성의 문제를 해결하기 위해서는 인공지능을 개발하는 사람, 공급하는 사람, 사용하는 사람 모두의 노력이 필요합니다.
인공지능 개발자는 인공지능 기술이 인간에게 해악을 끼치지 않도록 안전성에 최선을 다해야 합니다. 예외적인 상황에 대한 종합적 검토를 해야 하며, 지속적 품질관리를 실시하고, 오작동 및 위험에 대한 제어 장치를 마련해야 합니다.
인공지능 공급자는 제품 유통과정에서의 위험 요소를 파악하여 철저한 사전 검증을 실시하며, 인간이 기계의 선택을 기각할 수 있는 장치와 안전성 검증과 통제 조치를 마련해야 합니다. 또, 이용자의 선택 가능성을 보장해야 합니다.
인공지능 이용자는 인공지능 기술 및 관련 제품을 허용범위 이상으로 자의적으로 조작하거나 타인의 권리를 침해하는데 악용하지 않아야 합니다. 또, 자신이 이용하는 제품과 서비스에 대한 정확한 이용 안내 정보를 최대한 습득하고, 인공지능 기술 이용 역량을 강화해야 합니다.
5. 윤리적 인공지능 - 안전성 OX 퀴즈
인공지능 기술은 자율성을 가지고 있기 때문에 인간이 인공지능 기술을 안전하게 관리하고 적절하게 제어하지 못한다면 기술이 사람들에게 위협이 될 수도 있다.
안전한 AI는 인공지능이 인간이 사용하기에 얼마나 안전한지 믿고 사용해도 되는가에 관한 것입니다.