본문 바로가기
학습자료/외국문헌소개

[요약번역] 제이슨엠 솔로몬 "사회적 평등으로서의 배상권"

by 시민교육 2016. 6. 22.

제이슨엠솔로몬사회적평등으로서의배상권.hwp

 

 

인공지능 차량과의 본문의 논의와의 관계

- 운전자 1인 vs 보행자 1인의 사례에 한정하여 -

자유롭고 평등한 인간은 위험원인자를 운용함으로써 그러한 위험원인자를 가지고 있지 않은 동료 시민에 대하여 일정한 책임을 지게 된다. 즉, 그 위험원인자를 운용하는 데 어떤 주의의무 수준을 보장할 것인가에 관하여 자의적인 판단을 할 수 없는 책무를 지게 되는 것이다. 만일 그 책무가 없다고 가정한다면, 보행자의 자유는 다음과 같이 기술된다.

 

보행자의 자유: 보행자는 자신이 신체의 안전이 보장된 상태에서 계속 원하는대로 보행할 자유를, ‘운전자의 필요한 주의를 기울이고자 하는 자의가 허락하는 한’, 가진다.

 

따옴표 ‘ ’ 의 부분이 바로 ‘자의의 매개항’(parameter of arbitrary will)이다.

 

이 자의의 매개항을 인정하게 되면, 운행자는 일종의 특권, 타인의 신체의 안전과 자유를 자신의 자의에 의해서 상당부분 결정할 특권을 가지게 되며, 그 특권은 평등하고 자유로운 구성원들의 관계를 훼손하게 된다.

 

이것은 칼을 사용하는 사람, 건물을 짓는 사람, 원자력 발전소를 운용하는 사람에 있어서도 마찬가지로 적용되는 분석이다.

 

그렇다면 위험원인자의 운용자 중 하나인 자동차 운전자는 언제나 자의가 아니라, 보편적 격률로 입법될 수 있는 준칙에 의거하여 운행에 관한 판단을 하여야 한다.

 

의도적인 자의성(arbtirariness)가 아니라 현실적 한계 때문에 발생하는 자의성은, 숙고의 시간적 여유가 짧을수록 발생한다. 숙고의 시간이 극단적으로 짧을 때에는, 판단은 거의 즉발적 사고로 이루어지며, 그 사고는 두 가지 중 하나에 속하게 된다.

 

1) 무작위에 가까움 - 무작위에 판단이 가까워지면, 보행자의 안전은 운행자가 던지는 주사위의 결과에 의해 결정된다.

2) 운행자의 평소 성향에 의해 결정됨 - 이 경우에도 보행자의 안전은 운행자가 가지고 있는 평소 성향이 허락하는 한도에서만 보장되게 된다.

 

그렇다면 위험원인자를 운용하는 자는, 처음부터 위험원인자 운용으로 인해 생기는 이익을 일정한 책임을 감수하고 타는 것에 동의해야 한다. 그렇게 하여야 위험원인자의 운용이라는 현실적인 위해 가능성의 증가된 인수에도 불구하고, 관계적인 의미에서 특권에 서지 않기 때문이다. 그리고 이러한 일정한 책임은 자의의 매개항을 떼어내는 책임으로 이어진다. 이러한 책임을 인수하지 않는다면, 자동차를 스스로 운전하지 않는 결정을 해야 한다. 이것은 사용자의 책임을 인수하지 아니하면, 다른 사람을 고용하여 노동을 지휘하지 않는 결정을 해야 하는 것과 마찬가지이다.

 

자의의 매개항을 떼어낸다는 것은 보편적 격률로 입법될 수 있는 근거에 의해 판단함을 뜻한다. 그렇다면 이 보편적 격률은 운전자의 안전과 보행자의 안전을 기계적으로 순위매기는 것이 아닐 가능성이 높다. 왜냐하면 격률은 하나의 고립된 규칙이 아니며, 전체적인 자유의 책임 체계에 부합하여야 하기 때문이다. 예를 들어 자동차가 상당히 높은 제한속도로 달리는 도로에 엄청난 속도로 갑자기 뛰어나온 자살자를 피하기 위하여 반대 차선으로 차를 돌려 다가오는 차량과 강하게 부딪혀 목숨을 잃을 가능성이 높은 사고를 낼 수밖에 없다면, 이 경우에 보편적 격률은 자살자의 목숨을 우선하도록 하지 않는다.

 

이것은 다음과 같은 결론을 암시한다: 인공지능 자동차는 하나의 고정된 규칙으로서의 알고리듬을 탑재할 필요는 없다. 오히려 자동차의 인공지능은, 인간존엄의 원칙에 맞는 적정한 수많은 판단들이, 그리고 관련된 책임의 체계를 고려한 판단들을 학습하고, 그 학습한 내용에 따라 판단해야 한다.

 

최신 인공지능의 특징적인 점은, 그것이 인간의 ‘적합한’ 수많은 판단을 두루 학습하여, 그러한 학습에 기반한 사유체계와 유사한 것으로서 구체적인 상황에 대응하는 것이다. 알파고는 바둑의 알고리듬을 학습한 것은 아니다. 알파고는 오히려 바둑의 기보를 학습하였다. 그러나 여기서 주의할 것은, 알파고의 실력은 알파고가 학습한 기보의 수준에 의해 크게 영향받는다는 것이다. 물론 알파고는 어느 기보가 더 좋은지를 스스로 바둑을 둠으로써 또한 판단할 수 있다.

 

여기서 알파고와, 자동차가 탑재해야 하는 인공지능의 차이가 발생한다. 알파고는 바둑에서 승/패를 가르는 명확한 규칙에 의해서 우월전략을 판정할 수 있다. 반면에 인간의 존엄과 관련된 문제는 미리 사전에 정의된 승리의 결과라는 것이 주어져 있지 않다. 즉 이제까지 수립된 인공지능의 특성은, 목적이 이미 명확한 규칙에 의해 규정되어 있고, 다만 그 목적을 어떻게 최선으로 달성할 것인가 하는 목적-수단 추론, 즉 효율성을 찾아가는 추론에 한정되어 있었다는 것이다.

 

그러나 자동차 인공지능에 탑재되어야 할 것은 어떤 목적이 더 바람직하느냐 하는 목적 타당성을 검토하는 추론이다. 그런데 이 추론의 질은, 결국 이 인공지능이 제공받는 수많은 판단의 질에 의해 결정되게 된다.

이 인공지능에 제공해야 할 판단에 인류가 현실적으로 내리는 모든 판단이 들어갈 수 있다고는 할 수 없다. 그 경우, ISIL의 판단에서부터 나치의 판단에 이르기까지 모든 판단이 모두 기입될 것이다. 그 경우 인공지능은 어떠한 그럴법한 지침도 발견할 수 없을 것이며, 우리는 이 인공지능이 도출하는 결과가 인류의 비극을 상당부분 그대로 반영한 즉물적인 것이 될 것임을 예상할 수 있다.

 

그렇다면 인공지능에 탑재될 것은 단순한 규칙 알고리듬도 아니며, 또한 이 인공지능은 알고리듬은 전혀 없이 아무런 원칙 없는 판단의 무수한 집합을 통해 학습할 수도 없다.

 

결론적으로 인공지능에는, 일정한 판단들과 원칙들이 선별되어 들어갈 수밖에 없으며, 이 선별의 작업은 계약주의적 전통에 있는 정치철학자들이 맡아야 한다고 할 수 있다. 이러한 계약주의적 추론에 의한 판단은, 평등하고 자유로운 구성원들이 합당하게 거부할 수 없는 일반적 규칙을 찾아나가는 과정이 함께 전제되어야 한다.