본문 바로가기
카테고리 없음

AI 범죄자는 누구인가?

by revolu 2025. 7. 25.

한밤중, 자율주행차가 보행자를 치어 사망에 이르게 했습니다. 이 차량에는 운전자가 없었고, 주행 중 전방의 장애물을 인식하지 못한 AI 알고리즘의 판단 오류가 주요 원인이었습니다. 그럼 이 사고의 책임자는 누구일까요? 자동차 회사? 소프트웨어 개발자? 아니면 AI 그 자체일까요?인공지능이 사람의 생명과 재산에 큰 영향을 끼치는 시대가 도래하면서, 법과 윤리는 새로운 질문을 던지고 있습니다. AI가 ‘판단’을 내리고 ‘행동’을 취하는 시대에, 그 책임은 어디에 있는가? 이 글에서는 AI 범죄 또는 사고에 대한 책임 소재를 둘러싼 논쟁과 실제 사례들을 중심으로 AI의 자율성과 책임 문제를 고찰해봅니다.

 

1. 인간이 아닌 존재의 ‘책임’을 묻는 시대

전통적으로 법은 행위 주체가 인간이라는 전제 위에 세워져 왔습니다. 살인, 절도, 과실치사와 같은 범죄나 사고는 언제나 의도와 책임 능력이 있는 인간의 행위로 간주되었으며, 처벌 또한 개인에게 귀속되어 왔습니다. 그런데 이제는 사람의 지시 없이 스스로 결정을 내리고 행동하는 비인간적 존재, 즉 인공지능(AI)이 사회 전반에서 의사결정의 주체로 등장하고 있습니다.AI는 단순한 자동화된 기계가 아닙니다. 딥러닝과 머신러닝 기술을 통해, AI는 점점 자율성과 판단 능력을 갖추고 있으며, 그 결과가 실제 사람의 생명과 재산에 영향을 주는 사례가 늘고 있습니다. 문제는, 이러한 판단의 결과에 대해 책임을 지는 ‘주체’가 명확하지 않다는 점입니다. 인간은 실수를 하면 법적으로 처벌받거나 손해배상을 하지만, AI는 형사처벌은 물론이고 법적 책임의 대상조차 될 수 없는 존재입니다.예를 들어, 자율주행차가 보행자를 치었을 때, 차량은 스스로 상황을 인식하고 판단하여 주행을 했습니다. 그런데 사고가 났을 경우, 법은 여전히 “이 기술을 설계한 사람”, “차량을 제조한 회사”, “사용자인 운전자” 중 누군가에게 책임을 묻습니다. AI 자체가 판단을 내렸다는 사실은, 법적으로는 아직 책임 소재를 바꾸는 근거가 되지 못합니다.여기서 중요한 질문이 제기됩니다. AI가 자율적으로 판단하고 행동한다면, 기존의 책임 체계는 더 이상 유효한가? 기술이 단순한 ‘도구’를 넘어설 때, 법과 윤리는 새로운 해석을 요구받게 됩니다. AI의 판단이 인간의 개입 없이 이뤄진다면, 그 결정에 대한 책임은 누구의 것일까요? 개발자일까요? 데이터 제공자일까요? 아니면, AI 자체에 일정한 법적 지위를 부여해야 할까요?일부 학자들은 이러한 문제를 해결하기 위해, AI에게 제한적 법인격을 부여하자는 주장을 내놓고 있습니다. 마치 기업이 법적 권리와 책임을 갖는 ‘법인’으로 존재하듯, 고도로 자율적인 AI 역시 ‘전자적 인격(Electronic Personhood)’이라는 개념으로 법적 주체로 다뤄야 한다는 것입니다. 유럽연합(EU)도 관련 보고서에서 이 가능성을 검토한 바 있습니다.하지만 이 역시 논란이 많습니다. 법적 인격은 단순한 책임뿐 아니라 권리도 수반하기 때문입니다. AI에게 책임을 지게 하기 위해 권리까지 인정해야 할 것인지, 그 경계를 어떻게 설정할 것인지에 대한 법철학적 문제가 따라옵니다.결국 우리는 지금, 인간만을 책임 주체로 삼던 시대에서 기계의 판단력에도 책임을 물을 수 있을지를 고민해야 하는 새로운 시대에 들어섰습니다. 이 전환은 기술 발전만큼이나 법적 상상력과 제도적 설계를 요구하는 문제입니다.

2. 실제 사례: 알고리즘이 일으킨 사고들

인공지능이 단순한 연산 도구를 넘어 실생활에 깊숙이 관여하게 되면서, 실제로 AI의 판단이 사람의 생명과 사회 시스템에 심각한 영향을 준 사례들도 점점 늘어나고 있습니다. 단순한 기술적 결함이 아닌, 알고리즘이 스스로 내린 결정이 문제의 핵심이 되는 사건들입니다.

우버 자율주행차 보행자 사망 사건 (2018년, 애리조나)

2018년 미국 애리조나 주 템페에서 우버(Uber)의 자율주행 테스트 차량이 야간에 도로를 건너던 보행자를 치어 사망에 이르게 한 사건은 세계적으로 큰 충격을 주었습니다. 사고 당시 차량에는 안전 요원이 있었지만, 자율 주행 시스템이 운전을 전담하고 있었습니다. 조사 결과, 차량에 탑재된 인공지능은 보행자를 인식했음에도 불구하고 이를 '정지 명령'으로 연결시키지 못했습니다. 더구나 AI는 당시 상황에서 '비상 제동'을 하지 않도록 설계되어 있었던 것으로 드러났습니다.문제는 명확했습니다. 사람의 생명을 빼앗은 직접적인 원인은 알고리즘의 판단 오류였으며, 이는 단순한 기계 고장과는 차원이 다른 성격을 가지고 있었습니다. 이 사건을 통해 ‘AI의 판단은 곧 현실의 결과로 이어진다’는 점이 분명히 드러났습니다. 그러나 법적으로는 AI가 아닌, 우버라는 회사와 인간 안전요원에게 일부 책임이 부여됐을 뿐, 알고리즘 자체에는 어떠한 법적 판단도 적용되지 않았습니다.

COMPAS 알고리즘 – 사법 정의를 왜곡한 코드

미국 일부 주에서는 판사가 피고인의 보석 여부나 형량을 결정할 때 'COMPAS'라는 AI 알고리즘의 분석을 참고합니다. 이 프로그램은 범죄자의 재범 가능성을 분석해 점수화하는 방식으로 작동합니다. 하지만 2016년, 미디어 조사기관인 ProPublica가 이 알고리즘의 작동 원리를 분석한 결과, 흑인 피고인에게 더 높은 재범 가능성을 부여하는 명백한 편향이 있다는 사실이 드러났습니다.COMPAS는 인종이라는 요소를 직접적으로 고려하지 않는다고 주장했지만, 거주지, 교육 수준, 가족 구성 등의 간접적 요소들이 인종적 배경과 깊이 연결되어 있었기 때문에 결과적으로는 편향된 판단을 내릴 수밖에 없는 구조였습니다. 이 사건은 ‘AI는 중립적이다’라는 환상을 깨뜨리는 계기가 되었으며, 알고리즘도 인간의 편견을 내포할 수 있음을 보여주는 대표적인 사례로 남았습니다.

아마존의 AI 채용 시스템 – 여성 지원자 탈락

아마존은 과거 수년간 자사에 지원한 이력서를 학습한 AI를 통해 자동 채용 심사 시스템을 구축한 바 있습니다. 그러나 이 알고리즘은 여성 지원자의 이력서를 불리하게 평가하는 문제를 일으켰습니다. 개발 과정에서 AI는 ‘남성 중심의 기술직 이력서’를 성공 사례로 학습했고, 결과적으로 여성 대학 명시나 여성 동아리 참여가 언급된 이력서를 자동으로 낮게 평가했습니다.결국 아마존은 이 시스템의 사용을 중단했지만, 이미 수많은 여성 지원자들이 ‘낮은 점수’로 인해 면접 기회조차 얻지 못한 사실은 충격적이었습니다. 알고리즘은 “성별”이라는 항목을 사용하지 않았지만, 간접적으로 성별과 관련된 특징을 학습하면서 차별적 판단을 재생산했습니다. 이 사건은 AI의 ‘은폐된 차별’이 얼마나 위험할 수 있는지를 상징적으로 보여줍니다.

3. 법적 사각지대: 아직도 명확하지 않은 책임 구조

현행 법 체계는 여전히 인공지능을 도구(tool) 또는 제품(product)의 범주 안에서 이해하고 있습니다. 즉, AI가 사고를 일으켰다면 이는 곧 도구를 사용한 사람, 또는 그 도구를 설계하고 제조한 사람에게 책임이 있다는 논리입니다. 이는 망치나 전기톱처럼 단순한 도구에겐 유효한 개념입니다. 그러나 AI는 점점 자율성을 띠며, 사용자의 의도를 넘어선 독립적인 판단을 내릴 수 있게 되었습니다.

예컨대 딥러닝 기술을 사용하는 AI는 처음 설계자가 정한 규칙이 아닌, 방대한 데이터를 스스로 학습하며 알고리즘을 변화시키는 특성을 가집니다. 이러한 시스템에서는 특정 판단이 왜 나왔는지, 개발자조차 명확히 설명하기 어려운 경우가 많습니다. 소위 ‘블랙박스 AI’라는 표현은 여기서 비롯됩니다. 입력과 출력은 알 수 있지만, 그 사이 과정은 불투명하다는 점이 큰 문제입니다.이처럼 AI가 예측 불가능한 행동을 했을 때, 기존의 책임 체계는 작동하지 않습니다. 왜냐하면 기존 법은 인간의 고의나 과실을 전제로 하고 있기 때문입니다. 하지만 AI는 고의도 없고, 감정도 없으며, 오직 알고리즘에 따라 작동하는 존재입니다. 이때 ‘법적 공백’이 발생하게 됩니다.실제로도 여러 국가에서 AI 관련 사고에 대한 책임소재를 두고 법적 분쟁이 빈번하게 일어나고 있습니다. 자율주행차 사고, 자동매매 시스템의 투자 실패, 의료 AI의 오진, 범죄 예측 알고리즘의 차별 사례 등은 그 대표적인 예입니다. 이들 모두에서 공통적으로 나타나는 문제는 바로 “AI에게 직접 책임을 물을 수 없다”는 점입니다. 결국 그 책임은 애매하게 기업, 개발자, 운영자 사이에서 흐려지거나 분산되어버립니다.이에 따라 유럽연합을 비롯한 일부 지역에서는 AI를 법적으로 하나의 ‘주체’로 인정하는 방안을 모색하고 있습니다. 예컨대 ‘전자 인격(Electronic Personhood)’ 개념이 논의되었으며, 이는 일정 수준 이상의 자율성과 영향력을 가진 AI에게 제한적 책임 능력을 부여하자는 제안입니다. 하지만 이 역시 현실적인 반발과 철학적, 윤리적 문제에 부딪혀 있습니다. AI에게 법적 지위를 부여하는 순간, ‘권리’와 ‘의무’를 어떻게 조정할 것인지, 그 경계가 불분명해지기 때문입니다.또 다른 대안으로는 ‘공동 책임 모델’이 거론되고 있습니다. 이는 AI 시스템의 전체 생애주기에 걸쳐 관여한 주체들, 즉 데이터 제공자, 알고리즘 설계자, 시스템 통합자, 사용자, 감독 기관 등이 책임을 분산하여 공동으로 지는 구조입니다. 이 방식은 현실적인 타협책이 될 수 있지만, 실제 사고가 발생했을 때 ‘누가, 얼마나 책임을 져야 하는가’에 대한 명확한 기준이 없어 여전히 불완전합니다.결론적으로, 현재의 법 제도는 AI의 빠른 진화 속도를 따라가지 못하고 있으며, AI가 만든 결과에 대해 책임을 어떻게 정의할 것인가에 대한 사회적 합의가 절실한 상황입니다. 우리가 AI의 능력을 믿고 사용하기 위해선, 그만큼의 책임 구조와 법적 보호 장치도 반드시 뒷받침되어야 할 것입니다.

4. AI의 ‘의도’는 존재하는가?

범죄나 사고를 논할 때, 법은 항상 ‘의도’와 ‘과실’을 중요하게 따집니다. 누군가를 다치게 했다면, 그것이 고의였는지 실수였는지에 따라 처벌의 무게는 달라집니다. 그런데 인공지능에게도 그런 ‘의도’가 있을까요?우리가 일반적으로 말하는 ‘의도’는 감정, 동기, 판단의 배경이 포함된 개념입니다. “왜 그렇게 했는가?”, “무엇을 노렸는가?”라는 질문은 인간에겐 자연스럽지만, AI에게 적용하려면 이야기가 달라집니다. AI는 학습된 데이터와 설정된 알고리즘에 따라 확률적으로 판단을 내릴 뿐, 스스로 목표를 정하거나 감정을 기반으로 행동을 취하지는 않습니다. 즉, AI는 행동할 수 있지만, 그 행동에 내재된 ‘뜻’은 없습니다.그렇다면 AI가 실수로 사람을 다치게 하거나 차별적인 결정을 내렸을 때, 우리는 그것을 ‘과실’이라 할 수 있을까요? 혹은 AI가 반복해서 잘못된 판단을 내릴 때, 그것을 고의적인 행동으로 간주할 수 있을까요?이 질문에 답하기 위해선 AI의 판단 메커니즘을 이해할 필요가 있습니다. 오늘날의 고도화된 인공지능, 특히 딥러닝 기반 AI는 단순히 정해진 규칙에 따라 움직이지 않습니다. 수많은 데이터를 기반으로 스스로 ‘경향’을 파악하고, 그에 따라 결정을 내립니다. 이 과정에서 사람조차 설명하기 어려운 결과가 도출되기도 합니다. 일명 ‘블랙박스 AI’의 등장입니다.이런 상황에서 어떤 결정이 왜 내려졌는지를 파악하기 힘들고, 그만큼 책임을 묻기 위한 고의성 판단도 모호해집니다. 예를 들어, AI가 특정 인종이나 성별에 불리한 결정을 반복해서 내린다면, 이는 학습 데이터에 내재된 편향의 결과일 수 있습니다. 하지만 이 편향을 제거하지 않은 개발자의 책임일지, 그 결정을 실행한 조직의 문제일지, 아니면 단순한 기술적 한계일지는 분명하지 않습니다.그럼에도 불구하고, 점점 더 많은 AI가 인간을 대신해 ‘판단’을 내리는 시대에 우리는 반드시 물어야 합니다. AI는 판단만 할 수 있고, 의도는 없다고 치부해도 되는가? 만약 의도가 없다면, 우리는 그 판단의 정당성을 어떻게 평가할 수 있을까요?일각에서는 AI가 도구인 이상, 인간처럼 의도를 물을 수 없고, 따라서 책임도 묻기 어렵다고 주장합니다. 반면에, AI가 자율적으로 학습하고 상황을 판단하는 이상, 그것이 만든 결과에 대해선 어떤 형태로든 설명 가능성과 책임성이 뒤따라야 한다는 견해도 있습니다.궁극적으로 이 논의는 철학적 질문으로 이어집니다. ‘의도’는 감정과 자율성이 결합된 인간 고유의 개념인가, 아니면 복잡한 의사결정 메커니즘에도 적용될 수 있는 법적 기준인가? 이 물음에 답하는 것은 AI가 인간 사회에서 어떤 역할을 맡게 될지를 정의하는 중요한 출발점이 될 것입니다.

5. 앞으로의 방향: 책임 분산, 투명성, 설계 윤리

AI가 사람의 생명, 자유, 권리를 좌우할 수 있는 결정에 관여하는 시대에는 단순히 "누가 만들었는가"를 따지는 것을 넘어, 그 기술이 어떤 방식으로 설계되었고, 어떤 이해관계자들이 그 결정에 관여했는지를 총체적으로 살펴야 합니다. 따라서 AI 기술을 둘러싼 책임 구조는 더 이상 하나의 주체에 귀속될 수 없습니다. 여러 단계의 이해당사자가 책임을 분산하여 갖는 구조, 즉 다층적 책임 구조가 필요합니다.예를 들어, 자율주행차 사고가 발생했을 때 소프트웨어 개발자, 하드웨어 제조사, 데이터 공급자, 운용자(플랫폼 제공자), 사용자(차량 소유자)까지 각 단계의 역할에 따라 법적·윤리적 책임을 세분화할 수 있어야 합니다. 이것은 단순히 처벌을 위한 분류가 아니라, 예방과 개선을 위한 구조 설계의 일환입니다. 하나의 AI 시스템은 단일한 주체가 만든 것이 아니라, 다양한 기술과 데이터, 정책이 결합된 복합체이기 때문입니다.또한 ‘설명 가능성’(Explainability)이라는 문제도 중요하게 부각됩니다. 오늘날 많은 AI 시스템, 특히 딥러닝 기반 모델은 그 작동 원리가 블랙박스(Black Box)처럼 불투명하게 작동하는 경우가 많습니다. 인간에게 피해를 줄 수 있는 판단을 AI가 내릴 경우, 그 판단의 논리를 추적하고 설명할 수 있어야 책임의 소재도 명확해지고 신뢰도 확보할 수 있습니다. 그래서 최근에는 AI를 설계할 때부터 '결과가 아니라 이유까지' 설명할 수 있도록 만드는 설명 가능한 AI에 대한 연구와 제도적 관심이 증가하고 있습니다. 이와 더불어, AI를 설계하고 배포하는 기업과 연구기관에는 기술적 완성도 이상으로 중요한 것이 요구됩니다. 바로 윤리적 책임감입니다.AI가 기술적으로 가능한 것을 넘어서, 사회적으로 수용 가능한 방식으로 작동하도록 설계하는 것, 이것이 바로 ‘윤리 설계’의 핵심입니다. 예컨대 알고리즘에 내재된 편향을 줄이고, 특정 집단에 불리하게 작용하지 않도록 지속적으로 감시하고 수정하는 시스템이 뒷받침되어야 합니다.국제적으로도 이러한 움직임은 활발하게 이어지고 있습니다. 유럽연합은 ‘AI 법안(AI Act)’을 통해 위험 기반 분류에 따라 AI의 사용을 규제하고, 투명성과 안전성 기준을 제시하고 있습니다. 또한 ‘책임 있는 AI 개발’을 위한 가이드라인을 제정하여 기업이 지켜야 할 윤리적 원칙을 강조하고 있습니다.결국 AI의 미래는 기술의 발전 그 자체보다는, 그 기술을 어떻게 책임감 있게 설계하고 운영할 것인가에 달려 있습니다. 우리가 마주한 질문은 단순히 ‘AI가 무엇을 할 수 있는가’가 아니라, ‘AI가 무엇을 해야 하는가’에 대한 사회적 합의를 만들어가는 과정인 것입니다.

맺음말: “AI는 책임지지 않습니다, 아직은요.”

AI는 단순한 계산 도구를 넘어, 인간처럼 판단하고 선택하는 존재로 진화하고 있습니다. 의료, 금융, 교통, 채용, 그리고 사법 시스템에까지 그 손길이 닿고 있습니다. 하지만 이처럼 막강한 영향력을 가진 AI가 오판하거나 피해를 유발했을 때, 그 결과에 대한 법적·도덕적 책임을 어떻게 물어야 할지에 대한 논의는 아직 걸음마 수준에 머물러 있습니다.기술은 빠르게 앞서가지만, 윤리와 법은 항상 그 뒤를 쫓습니다. AI가 범죄를 일으켰을 때, “개발자가 잘못한 것인가?”, “데이터가 편향된 탓인가?”, “운영한 기업의 책임인가?”, 혹은 “그저 기술적 오류인가?”를 두고 우리는 복잡한 책임의 미로에 빠지게 됩니다.이것이 바로 오늘날 우리가 마주한 AI 시대의 딜레마입니다. 인간의 명령 없이 스스로 판단하는 AI가 증가하는 상황에서, 단순히 “기계의 문제”로 치부하기에는 사회적 피해가 너무 큽니다. 그 피해는 실존적인 삶의 위협일 수도 있고, 한 개인의 권리를 영구히 박탈하는 결정일 수도 있습니다.따라서 지금이야말로 우리는 법과 제도를 새롭게 설계해야 할 시점입니다. AI가 내린 결정에 대해 ‘누가’ 책임지는지를 명확히 해야 합니다. 단지 오류를 줄이는 기술적 개선만으로는 부족합니다. 인간 중심의 기술 윤리를 세우고, 책임을 회피할 수 없는 구조를 만드는 것이야말로 기술 발전의 기본 전제가 되어야 합니다.AI는 아직 책임을 지지 않습니다. 하지만 우리는 그 책임을 회피해서는 안 됩니다. 지금 우리가 고민하지 않으면, 머지않아 우리가 만든 AI가 또 다른 누군가의 권리를 침해할 수 있고, 그 피해는 곧 우리 모두의 몫이 될 수 있습니다.