티스토리 뷰

 

점이 아니라 선으로 기록하던 시대의 영화.

 

요즘 친구들은 매우 어렵고 지루하지만 "나는 봤지!"라고 말하는 영화. 그러나 영화가 나왔던 60년대에는 뜻밖에 명확했던 영화.

 

냉전과 핵. 우주진출에 대한 낙관은 자연스럽게 '진화'로 이어지고, 생일 축하 노래를 들으며 지구라는 요람을 떠나 성장하는 인류가 보편적인 상식이던 시절에는 어렵다기보다는 환각제와 함께하면 '끝내주는 영화'였음.

 

가끔 뜬금없이 찾아보게 되는데, 이번에 새삼 귀에 들어온 대사는 'HAL 9000'이 우주선과 같이 만들어진 게 아니라 9년 전에 태어난 존재라는 것.

 

결국, HAL은 학습하는 존재였으며 '로직'이 아니라 성격이 모난 것이었음.

 

여기서 질문.

 

윤리적 선택이 필요한 상황에서 인공지능의 선택은 어떤 기준으로 이루어져야 하는가?

 

예를 들어보자.

 

1. 구글카가 있다.

2. 탑승자는 시각장애인.

3. 자동주행 중, 왕복 2차선 도로에서 무단횡단하는 어린아이를 발견했다.

4. 브레이크는 파열되어 작동이 안 된다.

5. 정면에는 무단횡단 어린이 1명, 우측 인도에는 행인 3명, 맞은편 차로에는 운전자 1명이 탑승한 차량.

 

이때, 구글카의 자동주행 장치는 ①인도를 덮쳐 사상자가 발생하더라도 어린 생명은 지킨다. ② 3명의 사상자를 선택하기보다는 어린이 1명을 친다. ③ 맞은편 차와의 정면충돌 중 어떤 선택지를 선택해야 할까요?

 

먼 산이 보인다면 먼 산이라도 보고 싶은 심정입니다.

 

아무튼, 2001 스페이스 오디세이의 HAL급 슈퍼컴퓨터가 아니더라도 윤리적인 선택지 앞에 놓인 기계장치에 대한 의문은 '로직'이전에 내 앞의 생활이 되어 버렸네요.

 

그런데 누가 신경 쓰고 있죠?

 

누군가 지구를 지키고 있기는 한 거겠죠?