본문 바로가기
심리학/심리학이야기

윤리적 관점에서 바라보는 인공지능(artificial intelligence)

by 발칙한상상가 2023. 1. 1.
반응형

기술은 우리에게 이득을 주지만 동시에 윤리적 갈등도 제기한다. 무인 자동차가 교차로를 향해 달려가고 있다고 상상해보자 이차는 원래 오른쪽으로 돌아가도록 설정되어 있으며 차의 감자 장치는 오른쪽에서 다가오는 자전거 탄 사람을 주의 깊게 살펴보고 있었다. 그때 갑자기 한 어린아이가 엄마의 손을 벗어나 차가 오는 방향으로 뛰어들었다. 이 경우 차의 통제 컴퓨터는 자전거 탄 사람과 어린아이 어느 쪽을 희생시켜야 할지 바로 결정해야 한다. 어떻게 최소한의 피해만 일으킬지 정확하게 계산하거나 더 많은 자료를 수집할 시간은 전혀 없으며 또 어느 쪽 생명을 더 귀중하게 여겨야 할지 생각할 겨를도 없다. 자전거 탄 사람인가 아니면 어린아이인가? 통제 컴퓨터는 과연 어떤 결정을 해야 하는가? 이 이야기는 이른바 '궤도차량 문제'로 잘 알려진 심리 시험 문제를 변형한 것이다. 사람이 외부에서 조종하는 궤도차량이 달려가는데 양 갈래 길에서 이쪽 길로 가면 한 사람이 죽고 다른 쪽 길로 가면 다섯 사람이 죽는다. 내가 만일 이 궤도차량을 조종한다면 어느 쪽 길을 선택할까? 궤도 차량 문제는 단순한 도덕적, 윤리적 판단으로는 해결할 수 없는 복잡하고 어려운 상황을 제시한다. 영화 <소피의 선택>에서 배우 메릴 스트립은 제2차 세계대전 당시 나치 독일 치하의 폴란드에서 저항군에 협력하는 여성 소피를 연기했다. 소피는 결국 두 아이와 함께 체포되어 수용소로 보내졌고 그곳에서 만난 한 독일군 장교는 소피의 선택에 따라 한 아이는 죽이고 한 아이는 살려서 다른 수용소로 보내겠다고 말한다. 둘 중 어느 쪽도 선택하기 불가능한 상황에서 어쨌든 소피는 순간적으로 끔찍한 선택을 해야 한다. 궤도차량이 갈 길을 선택해야 하는 것처럼 말이다. 이런 유형의 도덕적, 윤리적 선택의 갈등은 전투기에 탑승하는 조종사보다 먼 곳에서 원격으로 무인 전투기를 조종하는 조종사가 작전 수행 후 더 큰 외상 후 스트레스 장애를 경험하는 원인을 설명해줄 수 있다. 전투기 조종사는 자신의 목숨도 위험한 상황에서 작전에 임하지만 무인 전투기 조정사는 멀리 떨어진 안전한 기지에서 삶과 죽음을 결정해야 한다. 《뉴욕타임스》에 이얼 프레스가 기고한 기사에 애런이라는 무인 전투기 조종사에 관한 이야기가 나온다. "애런의 눈앞에 끔찍할 정도로 익숙한 장면이 펼쳐졌다. 무인 전투기의 공격 이후 발생한 희생자들의 운구 행렬이었다." 애런은 산전수전을 겪은 군인이었지만 심한 정신적 충격과 고통을 느끼기 시작했다. 그는 욕지기와 피부병, 만성 소화불량 등으로 점점 심신이 쇠약해졌다. "정말로 상태가 좋지 않았다." 애런이 프레스에게 한 고백이다. 그는 누구를 죽이고 누구를 살릴 것인가를 매일 결졍해야 했고 그 때문에 심각한 갈등을 겪었다. 2016년과 2017년 MIT가 주도한 다국적 연구진이 이른바 '도덕 기계 실험'을 했다. 문화권이 각기 다른 사람들이 앞서 언급한 곤란한 상황들에 어떻게 대처하는지 확인하기 위해서였다. 연구진은 인터넷으로 200곳이 넘는 국가와 지역에 걸쳐 200만 명이 넘는 사람들로부터 자동차 운전에 관한 4,000만 건에 가까운 결정을 수집했다. 연구진은 응답자들에게 다른 사람의 죽음을 피할 수 없는 13가지 경우를 제시했다. 일부 문제들은 상대적으로 경정하기가 쉬웠다. 예를 들어 반려동물과 사람 중 어느 쪽을 희생시켜야 할까? 더 많은 수와 더 적은 수, 어느 쪽 생명을 우선순위로 정해야 하는가? 어떤 결정들은 도덕적, 윤리적으로 훨씬 판단하기 어려웠다. 정상인 사람과 장애인 중 어느 쪽을 먼저 보호해야 하는가? 범죄자와 법을 잘 준수하는 시민이 눈앞에 있을 때는? 이 실험에서 사람들은 동물보다는 사람을, 소수보다는 다수를, 그리고 나이 든 사람보다는 젊은 사람을 더 중요시했다. 연구자들은 다음과 같은 결론을 내렸다. "이 세 가지 선호도를 기계의 윤리학을 구성하는 가장 중요한 세 가지 요소로 사용할 수 있을 것이다." 물론 예상한 데로 약간의 차이점들도 발견되었다. 남성과 여성 모두는 여성을 좀 더 중시했고, 여성들이 특히 같은 여성을 좀 더 중요하게 여겼다. 종교를 믿는 사람들은 동물보다 사람을 더 중요하게 생각하는 경향이 있었다. 또한 지역에 따라서도 큰 차이가 나타났다. "나이 든 사람보다 젊은 사람을 중시하는 경우는 유교를 믿는 아시아 국가들과 일부 이슬람 국가들에서는 거의 찾아볼 수 없었고, 라틴아메리카와 프랑스어권 아프리카 같은 남부 지역에서 뚜렷하게 나타났다." 지위가 높은 사람과 낮은 사람에 관한 결정에서도 비슷한 결과가 나타나, 아시아 국가와 일부 이슬람 국가에서는 지위가 높은 사람을 좀 더 중시했다. 그런데 남부 지역 사람들은 "사람보다는 동물을 훨씬 선호했다." 또한 "지역을 막론하고 비슷한 수준으로 차에 탄 사람보다는 보행자를 약간 더 보호해야 한다고 생각했다." 개인적인 성향의 문화가 강한 지역 사람들은 젊은 사람들의 생명을 좀 더 중요하게 여겼고, 가난한 나라 사람들은 교통신호를 지키는 사람이 아니라 지키지 않는 사람에게 좀 더 너그러웠다. 조금 당혹스러운 일이지만 경제적 불평등이 심한 지역 사람들은 지위가 높은 사람을 더 중요하게 여기는 경향이 있었다. 이 연구 결과와 관련해 골치 아픈 점은 "기계의 윤리학을 이용하면 로봇에게 완벽한 규칙을 적용할 수 있다고 생각하는 사람들이 있다는 사실" 인공지능 출현으로 불거진 문제는 궤도차량 문제에 관한 도덕적 갈등뿐이 아니다. 소나타 소프트웨어의 최고경영자 스리카 레디는 세계 경제 포럼의 인터넷 지면을 빌려 이렇게 주장했다. 우리는 의무에 따른 윤리적 기준과 목적에 따른 윤리적 기준을 구분해야 하며, 전자는 의도와 수단에, 그리고 후자는 목적과 결과에 초점을 맞춰야 한다. 어떤 기준이 가장 좋으냐는 기술과 상황에 따라 달라진다. "자율 주행 자동차의 경우, 목적이 오류가 없는 교통 체계와 효율적이고 친환경적인 운송 수단을 만드는 것이라면 각기 다른 상황에서의 방대한 운전 관련 자료를 수집하고 인공지능을 기반으로 실험을 실시하는 행위는 정당화할 수 있다." 반면에 수집된 대량의 자료들, 즉 빅 데이터에 기반한 의학적 실험이나 처치는 목적에 따른 윤리적 기준과 부합하기 힘들다. 이미 의사를 신뢰하는 사람들에게 행해졌던 의학적 실험에 관한 끔찍한 역사가 있기 때문이다. 따라서 의도와 수단에 초점을 맞춘 의무론적 기준을 적용하는 쪽이 더 합리적이다. 자동화와 인공지능, 그리고 빅 데이터와 관련된 윤리적, 도덕적 갈등 등을 무시하고 넘어가기는 어렵다. 

2022.12.27 - [심리학/심리학이야기] - 인간관계가 원만한 사람의 18가지 특징

반응형

댓글