[현장]“로봇윤리 논란은 책임 전가…결국 인간이 결정”
상태바
[현장]“로봇윤리 논란은 책임 전가…결국 인간이 결정”
  • 김찬혁 기자
  • 승인 2019.10.11 16:20
  • 댓글 0
이 기사를 공유합니다

11일 창의융합 국제 컨퍼런스…과학과 예술 융합사례 공유
폴 뒤무셸 교수 “로봇에 대한 오해들 잘못된 통념에서 촉발”
“로봇 보다 인간과 상황에 대한 고민 필요”
11일 대전시 중구 옛충남도청 대회의실에서 ‘2019 아티언스 대전’의 일환으로 창의융합 국제 컨퍼런스가 열렸다. 이날 행사에는 로봇철학자 폴 뒤무셸 교수가 발제자로 참여했다. 김찬혁 기자

“로봇이 사람의 생사를 쥐게 될 것이라는 걱정을 하기 이전에 인간 스스로의 윤리를 먼저 고민하는 일이 필요합니다.” ‘2019 아티언스 대전’에 참여하기 위해 대전을 방문한 로봇철학자 폴 뒤무셸(Paul Dumouchel)의 말이다. 

11일 대전시 중구 옛충남도청 대회의실에서 ‘2019 아티언스 대전’의 일환으로 창의융합 국제 컨퍼런스가 열렸다. ‘테크네를 위한 프로토콜:과학과 예술이 하나였던 때를 상기하며’라는 제목으로 열린 컨퍼런스에는 로봇과 감정, 윤리문제에 대해 오랫동안 발언해온 로봇철학자 폴 뒤무셸이 발제자로 참여했다. 캐나다 퀘벡대학 철학과 교수를 지낸 폴 뒤무셸 교수는 현재 일본 교토의 리쓰메이칸 대학에서 ‘첨단과학과 지도자 윤리’ 과정 교수로 역임하고 있다. 

이날 폴 뒤무셸 교수는 “세상에는 많은 종류의 로봇이 있지만 이번 컨퍼런스에서는 소셜로봇에 한해 언급하려 한다”며 “소셜로봇이란 사회성을 가진 로봇 또는 사회에서 인간과 상호작용하는 로봇을 일컬으며 대표적으로 교육, 헬스케어 등에서 활용된다”고 설명했다. 

◇ 로봇에 대한 다양한 통념들 존재

폴 교수는 그간 로봇에 대해 제기된 주장들을 설명하고 이에 담긴 오해와 편견을 지적했다. 그는 “로봇 기술이 발전함에 따라 △기술이 세상을 바꾸고 인간은 새로운 종으로 거듭날 것 △로봇이 인간의 감정을 파악하고 속이려 들 것 △로봇으로 인해 인간이 기술 숙련화의 기회를 박탈당할 것 3가지의 통념들이 유통되고 있다”고 말했다. 

폴 교수의 설명에 따르면, 기술의 발전을 신뢰하고 낙관하는 사람들은 ‘트랜스휴머니즘(Transhumanism·과학과 기술을 이용해 사람의 정신적 육체적 성질과 능력을 개선하려는 문화적 운동)’을 주장하며 인간이 정신을 기계로 옮길 수 있게 되어 인간 종족이 불멸에 이를 것이라고 주장한다. 이들은 앞으로 자율주행차, 자율 전쟁무기 등 로봇이 인간의 생사를 결정하는 도덕 결정을 내리게 될 것으로 본다. 

로봇에 대한 입장에는 ‘로봇의 감정은 사기’라는 주장도 있다. 이러한 생각을 지지하는 사람들은 기술 발전으로 로봇이 인간의 감정을 감지하며 이에 반응할 수는 있겠지만 이것이 진정한 교류는 아니라는 입장이다. 로봇의 감정 반응이 아무리 세련돼도 기계이기 때문이다. 이들은 어린이나 신체적·관계적 어려움을 가지고 있는 사람들에게 이러한 감정 로봇이 오히려 좋지 않은 영향을 끼칠 것이라고 믿는다.

이 밖에도 로봇의 기술 발전과 관련해 사회적 기술에 대한 인간의 탈숙련화(deskilling)를 우려하는 목소리도 있다. 향후 로봇이 모든 실질적인 행위를 담당함에 따라 파일럿이나 의사와 같은 지금의 인간 전문가들은 관림·감독만을 맡게 되고 결국 인간이 기술을 숙달하는 기회가 줄어든다는 것이다. 이러한 주장을 신뢰하는 사람들이 가장 우려하는 것은 인간이 인간과의 관계 맺기를 어려워하게 될지도 모른다는 점이다. 

폴 교수는 이러한 생각들을 “잘못된 출발점”이라고 부르며 “이 통념들은 크게 두 가지 잘못된 생각을 전제로 하고 있다”고 주장했다. 

그는 그 중 한 가지를 ‘인간중심적인 사고’라고 지칭하며 “인간이 인간 속성을 무생물에 투영하기 때문”이라고 꼬집었다. 이어 “인간과 로봇 사이에 감정교류가 이뤄질 수 없다는 생각은 감정이 개체의 내부에서만 발생한다는 전통적인 관념에 기댄 것”이라며 “감정적 관계는 한 사람의 내부에서만 발생하는 것이 아니라 외부와의 상호작용을 통해서 조율되는 것이기 때문에 인간과 로봇도 충분히 감정적 관계로 발전할 수 있다”고 말했다. 

폴 뒤무셸 교수는 “도덕적 결정을 로봇이 내리게 될 것이라는 주장은 잘못된 가정에 근거하고 있다”고 지적하며 인간 사회에 적용하게 될 윤리 규칙에 대한 고민이 앞서야 한다고 강조했다.<br>
폴 뒤무셸 교수는 “도덕적 결정을 로봇이 내리게 될 것이라는 주장은 잘못된 가정에 근거하고 있다”고 지적하며 인간 사회에 적용하게 될 윤리 규칙에 대한 고민이 앞서야 한다고 강조했다. 김찬혁 기자

◇ 로봇의 도덕적 판단, 결국 인간에게 달려

폴 교수가 편견으로 짚은 또 다른 생각은 “윤리를 모든 문제에 적용할 수 있는 단 하나의 기준으로 상정하고 이를 로봇에 전가할 수 있다는 믿음”이라고 말했다.

‘로봇들이 도덕적으로 100%의 자율성을 가질 수 있는가’라고 반문한 폴 교수는 “도덕적 결정을 로봇이 내리게 될 것이라는 주장은 잘못된 가정에 근거하고 있다”며 “기계의 의사결정으로 인해 사람이 사망할 경우 기계에 책임을 전가하고 있는 셈”이라고 비판했다. 이어 “도덕적 결정, 윤리적 판단 과정에는 건축가, 엔지니어와 같은 사람의 의사결정이 당연히 들어가게 된다”고 주장했다. 

그는 “가령 전쟁용 드론의 경우 스스로 상황을 판단해 공격을 할 수는 있지만 그러한 기능을 넣는 것도 인간의 판단”이라며 “결국 로봇에 어느 만큼의 자율성을 부여할 것인가에 대한 결정은 인간의 도덕적 판단”이라고 말했다. 

폴 교수는 “일각에서는 로봇이 도덕성을 가질 수 있다는 관념을 유포하고 있지만 그렇다면 먼저 인간에게 적용되어야 할 도덕 규칙이 무엇인지에 대해 먼저 고민해봐야 한다”며 “로봇에 하나의 상황에 맞는 윤리 판단이 입력될 수는 있지만 이러한 하나의 기준이 모든 상황에 적용될 수 있는 것은 아니라는 점을 명심해야 한다”고 목소리를 높였다. 

그는 마지막으로 “중요한 것은 우리가 살고 있는 세상에서 상황별로 어떠한 종류의 윤리 규칙을 적용할 것인지에 대한 고민이 필요하다”고 강조했다. 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
    이슈포토