오늘날 범죄 수사와 치안 유지에도 인공지능(AI)의 기술이 빠르게 도입되고 있습니다. 특히 CCTV 분석, 범죄 지역 예측, 용의자 추적 등에서 AI 알고리즘이 효율적인 도구로 떠오르고 있는데요. 하지만 이 편리함 뒤에는 매우 민감한 문제가 숨어 있습니다. AI가 과연 ‘누가 범죄자처럼 보이는가’를 판단할 자격이 있을까요? 더 심각한 것은, 이 판단이 인간 사회의 편견과 차별을 그대로 학습했다는 점입니다.
범죄 예측 알고리즘, 어떻게 작동할까?
‘범죄 예측 알고리즘’이란, 과거 범죄 데이터를 학습해 범죄 발생 가능성이 높은 시간대와 장소, 심지어 사람까지 예측하는 기술입니다. 대표적인 시스템으로는 미국의 PredPol(Predictive Policing)이 있습니다. 이 시스템은 경찰이 작성한 범죄 보고서를 바탕으로, 특정 지역에서 어느 시점에 범죄가 발생할 가능성이 높은지를 예측해 순찰을 배치합니다. 얼핏 들으면 도시 안전을 위한 똑똑한 기술처럼 보입니다. 하지만 이 알고리즘이 사용하는 기존 범죄 기록 자체가 이미 인종적·사회적 편견에 기반해 작성된 것이라면, AI는 그 편견을 강화하는 역할을 하게 됩니다. 또한 일부 시스템은 단순히 지역만이 아니라, 개인의 과거 기록, 행동 패턴, 연령, 거주지, 사회적 관계까지 종합적으로 분석해 “잠재적 범죄자”로 분류하는 기능을 탑재하기도 합니다. 이러한 방식은 “예방적 경찰 활동”을 가능하게 만든다는 장점도 있지만, 동시에 아직 아무런 범죄를 저지르지 않은 사람을 감시하고 낙인찍는 결과를 초래할 수 있습니다. 특히 최근에는 머신러닝 기술을 활용해 범죄 유형별 패턴까지 학습하는 시도도 이어지고 있습니다. 예를 들어, 밤늦게 혼자 움직이는 사람이나, 특정 장소에서 장시간 머무는 사람을 위험 인물로 자동 식별하는 시스템이 등장하고 있습니다. 하지만 이러한 판단 기준이 명확한 맥락 없이 단지 “과거와 유사하다”는 이유로 적용된다면, 그 대상은 누구든 범죄자로 오해받을 수 있는 위험에 처하게 됩니다. 결국 이 알고리즘의 작동 방식은, 데이터를 입력하고 통계를 분석해 ‘가능성’을 수치로 뽑아내는 것이지만, 이 수치 하나가 현실에서 한 사람의 삶에 결정적인 영향을 미칠 수 있다는 점에서, 단순한 기술 문제로만 볼 수 없습니다.
실제 사례: AI가 만든 ‘범죄자 얼굴’ 논란
2016년, 중국 상하이 자오퉁 대학(Shanghai Jiao Tong University)의 한 연구팀은 세상을 놀라게 한 연구 결과를 발표했습니다.
AI가 얼굴 사진만으로 범죄자의 얼굴을 식별할 수 있다는 것이었습니다. 연구진은 약 1,500장의 남성 얼굴 데이터를 수집해 이 중 절반은 범죄자, 나머지 절반은 일반인으로 분류했습니다. 이후 AI는 이 얼굴들을 학습하며, 범죄자일 확률이 높은 얼굴의 패턴을 스스로 인식해냈다고 주장했습니다. 그 결과 AI는 특정한 턱선, 눈 간격, 입 모양 등을 바탕으로 “범죄자일 가능성이 높은 얼굴”을 식별했고, 연구진은 89.5%의 정확도를 달성했다고 발표했습니다. 하지만 문제는 이러한 판단 기준이 전적으로 ‘외모’에 기반했다는 점입니다. 이는 사실상 생물학적 결정론 혹은 외모에 따른 차별로 이어질 수 있는 위험한 접근입니다. 더 나아가 이 연구는, 과거 19세기 말 이탈리아의 범죄학자 체사레 롬브로소(Cesare Lombroso)의 이론을 떠올리게 했습니다. 롬브로소는 범죄자는 태어날 때부터 특정한 신체적 특징을 가지고 있으며, 이로 인해 범죄 성향이 있다고 주장했습니다. 현대에서는 인종차별적이고 비과학적인 이론으로 완전히 폐기된 학설입니다. 그런데 AI가 이와 유사한 판단을 데이터 기반으로 되풀이하고 있는 셈입니다. 게다가 이 연구는 학계에서도 큰 반발을 불러일으켰습니다. AI 윤리 연구자들은 해당 연구가 인종차별, 외모 차별, 사회적 낙인을 조장할 수 있다고 지적했습니다. 실제로 사람의 얼굴에는 범죄 성향을 판별할 수 있는 과학적 근거가 없으며, 오히려 이처럼 AI가 임의의 상관관계를 패턴으로 잘못 인식하면, 무고한 이들에게 잠재적 범죄자라는 낙인을 찍게 되는 심각한 오류로 이어질 수 있습니다. 또한 해당 AI가 훈련된 데이터는 대부분 남성, 특히 특정 인종과 사회계층에 치우쳐 있었으며, 데이터 자체에 포함된 편향(bias)을 그대로 학습했다는 점에서 윤리적으로 큰 문제가 제기됐습니다. 예를 들어, 경제적 약자나 특정 지역의 범죄 기록이 더 많이 포함된 경우, AI는 무의식적으로 해당 그룹을 위험군으로 분류하게 됩니다. 결과적으로 이 논문은 세계 주요 저널에서 윤리적 문제로 출판 거절을 당했고, AI를 범죄 예측에 사용하는 방식에 대해 학계 전반의 재검토가 이루어지는 계기가 되었습니다. 이 사례는 AI가 단순히 데이터를 분석하는 기계가 아니라, 인간의 가치 판단과 편견을 재생산하는 거울일 수 있다는 사실을 일깨워줍니다. 기술이 아무리 정밀하더라도, 그 출발점이 잘못됐다면 결과는 더욱 왜곡될 수밖에 없습니다.
얼굴 인식 기술의 그림자
얼굴 인식 기반의 감시 기술 또한 같은 문제를 안고 있습니다. 영국 런던 경찰은 얼굴 인식 기술을 이용해 시범적으로 범죄 용의자를 탐지한 바 있습니다. 하지만 그 결과는 놀랍게도 오탐률 80% 이상. 특히 아시아계, 흑인 남성을 식별할 때 오류가 더 많았으며, 여성보다 남성의 얼굴을 더 자주 인식 실패했습니다. 이러한 결과는 단순한 기술적 결함이 아니라, 데이터 수집의 편향성과 훈련 알고리즘의 불균형에서 비롯됩니다. 즉, AI는 정확하게 인식하고 판단하는 것처럼 보이지만, 실제로는 사회적 편견을 수학적으로 반복하는 중일 뿐입니다. 문제는 단순히 오탐에 그치지 않습니다. 잘못된 인식으로 인해 실제로 체포되거나 조사를 받는 사례도 존재합니다.
미국 디트로이트에서는 2020년, 얼굴 인식 알고리즘의 오인으로 인해 한 흑인 남성이 전혀 관련 없는 범죄 용의자로 잘못 체포되었습니다. 그는 범죄 발생 당시 다른 장소에 있었고, 명확한 알리바이가 있었지만, AI가 그의 얼굴을 CCTV 영상 속 인물과 유사하다고 판단했다는 이유만으로 수사 대상이 되었습니다. 이처럼 얼굴 인식 기술은 개인의 신원과 자유를 위협할 수 있는 도구가 되며, 특히 소수자 집단에게 더 큰 피해를 줄 수 있습니다. 왜냐하면 학습 데이터에 백인 남성의 얼굴이 압도적으로 많을 경우, 다른 인종과 성별에 대한 인식 정확도는 떨어질 수밖에 없기 때문입니다. 또한, 얼굴 인식 기술은 사회 전반에 '감시받는 일상'을 조성합니다. 우리가 어디를 가든, 어떤 옷을 입든, 무심코 지나가는 카메라에 의해 추적당할 수 있다는 사실은 사적인 공간과 자유의 개념을 흐리게 만들죠. 이런 기술이 법적·윤리적 기준 없이 남용될 경우, ‘범죄 예방’이라는 이름 아래 무고한 시민의 행동 하나하나가 분석과 감시의 대상이 되는 사회가 도래할 수 있습니다. 결국 얼굴 인식 기술은 양날의 검입니다. 범죄자 검거에 활용될 수 있는 잠재력도 있지만, 그만큼 오남용과 오류의 위험성도 크다는 점을 우리는 결코 간과해서는 안 됩니다. 특히 인간의 얼굴이라는 가장 민감한 개인정보를 분석하고 판단하는 기술인 만큼, 더욱 철저한 법적 규제와 윤리적 기준이 수반되어야 할 것입니다.
‘예측’이라는 명분, ‘낙인’이라는 결과
AI 범죄 예측 시스템은 겉으로는 ‘범죄 예방’을 위한 기술이라고 주장합니다. 하지만 그 이면에는 한 사람을 데이터로만 판단하고, 아직 아무 행동도 하지 않은 이에게 ‘잠재적 범죄자’라는 꼬리표를 붙이는 위험성이 존재합니다. 예를 들어, 특정 지역에서 과거 범죄 발생률이 높았다는 이유로 AI가 그 지역에 사는 청소년을 ‘감시 대상’으로 자동 등록한다면, 그들은 자신도 모르는 사이에 ‘미래의 범죄자’라는 프레임에 갇히게 됩니다. 심지어 실제 범죄와 무관하더라도, AI의 판단이 경찰 순찰 강화, 임시 체포, 학교 및 사회의 편견으로 이어지는 경우도 존재합니다. 이런 방식은 실질적으로 “낙인을 자동화”하는 것이며, 그 낙인은 개인의 자율성과 미래 가능성을 박탈합니다. 즉, 과거의 통계를 현재 사람에게 덧씌우는 것이죠. “그는 과거 데이터와 유사한 패턴을 보이니, 위험할 수 있다”는 판단은 사실상 ‘그는 위험하다’는 결론으로 쉽게 바뀌게 됩니다. 더 심각한 문제는 이 판단이 보이지 않게, 설명 없이 작동한다는 점입니다. AI의 결정은 수학적 알고리즘으로 구성되어 있어 일반인이 그 과정이나 기준을 이해하거나 이의를 제기하기 어렵습니다. 결국, AI는 사람을 “낙인찍고 통제”하면서도 “책임을 지지 않는 권력”이 될 수 있는 것입니다. 이러한 현상은 특히 사회적 약자에게 더 가혹하게 작용합니다. 저소득층, 소수 인종, 청소년 등은 기존 범죄 통계에서 ‘자주 등장하는 그룹’일 가능성이 높고, 이는 AI가 이들을 더 자주, 더 깊이 감시하는 방향으로 작동하게 만듭니다. 이렇게 되면 기술은 범죄를 줄이는 것이 아니라, 차별을 반복하고 편견을 정당화하는 도구가 됩니다. AI가 만든 예측은 인간의 미래를 제한하는 도구가 되어서는 안 됩니다. 기술은 가능성을 여는 수단이어야지, 미래를 미리 단정하고 봉쇄하는 ‘디지털 낙인’이 되어선 안 됩니다.
기술은 중립이 아니다
AI는 인간이 만든 기술입니다. 그리고 기술은 결코 그 자체로 ‘중립적’이지 않습니다. 기술이 중립이라는 생각은 마치 도구가 사용자와 무관하게 ‘객관적’이라는 환상에 불과합니다. 하지만 도구를 만든 사람의 가치관, 사용하는 사회의 구조, 입력되는 데이터의 맥락은 모두 기술에 영향을 미칩니다. 범죄 예측 AI가 “이 사람은 위험할 수 있다”고 판단하는 순간, 우리는 기술이 내린 결론에 신뢰를 부여하게 됩니다. 왜냐하면 컴퓨터가 말했기 때문입니다. 수학적으로, 통계적으로 분석되었다고 믿기 때문입니다. 하지만 그 판단은 우리가 입력한 데이터와 알고리즘 설계자의 기준, 과거의 사회적 편향을 기반으로 만들어진 결과일 뿐입니다. 예를 들어, AI에게 “범죄자의 얼굴”을 학습시키려면 누가 범죄자인지 정의하고, 그 사람들의 사진을 모아야 합니다. 그 과정에서 이미 특정 계층이나 인종이 과대표집되었다면, AI는 그 ‘편향된 패턴’을 일반화합니다. 그리고 그것을 다시 사회에 반영합니다. 이것이 바로 기술이 사회적 편견을 수학적 공식으로 고정시키는 과정입니다. 기술의 위험은 여기에 있습니다. 기술은 ‘보이지 않게’ 차별하고, ‘객관적인 척’ 판단하며, ‘알고리즘의 이름으로’ 사람을 낙인찍습니다. 그 어떤 책임도 없이, 단지 효율성과 정확도라는 이름으로. 따라서 기술을 단순히 ‘도구’로만 바라보아서는 안 됩니다. 어떤 목적을 위해 설계되었는가, 어떤 윤리를 기준으로 작동하는가, 그리고 그 기술이 사회에 어떤 영향을 미치는가를 반드시 함께 고민해야 합니다. AI 기술이 발전할수록, 오히려 우리는 더 강력한 감시와 견제, 그리고 윤리적 기준의 설정이 필요합니다. 기술이 중립이 아니라면, 그 기술이 누구를 위해 설계되었는지를 묻는 것이 가장 정치적인 질문입니다.
그리고 그것이 바로 AI 시대를 살아가는 우리가 놓치지 말아야 할 핵심이기도 합니다.
맺음말: 인간을 판단하는 AI, 그 기준은 누구의 것인가?
AI는 더 빠르게, 더 정확하게 데이터를 분석하며 인간의 업무를 보조하거나 대체하고 있습니다. 범죄 예측 알고리즘이나 얼굴 인식 기술처럼, 인간의 안전과 질서를 위한 분야에까지 그 손길이 닿고 있다는 사실은 기술의 위력을 보여주는 동시에, 우리가 더 이상 기술을 단순한 도구로만 볼 수 없게 만듭니다. 하지만 기술이 인간을 ‘판단’하는 위치에 설 때, 우리는 반드시 물어야 합니다. AI가 내린 판단의 기준은 누구로부터 온 것인가? 그 기준은 객관적인 수학 공식일까요, 아니면 과거 사회가 가진 편견과 차별이 정제되지 않은 채 흘러 들어간 결과물일까요? 범죄 예측 알고리즘이 특정 인종이나 계층을 더 자주 ‘위험’하다고 판단하는 이유는, AI가 인간보다 악의적이기 때문이 아닙니다. 그보다는 AI가 학습한 데이터가 이미 편향되어 있었고, 우리는 그것을 여과 없이 기술에 넘겨주었기 때문입니다. 즉, AI는 우리가 만든 거울이며, 그 거울은 우리의 불완전한 모습을 그대로 반사합니다. AI가 인간의 삶을 판단하는 영역에 사용될 때는, 단지 정확도만을 기준으로 판단해서는 안 됩니다. 중요한 것은 그 판단이 인간의 존엄을 해치지 않는가, 사회적 약자를 더 깊은 그늘로 밀어 넣지는 않는가, 그리고 그 기술의 기준과 알고리즘이 투명하게 공개되고 통제되고 있는가입니다. 기술은 가치 중립적이지 않습니다. 기술이 인간을 ‘위험하다’고 정의하는 그 순간, 기술은 누군가의 삶을 가르고, 기회를 제한하며, 심지어 미래까지 박탈할 수 있습니다. 이것은 단순한 기술의 진보가 아니라 인간성의 경계를 다시 정하는 일입니다. 따라서 우리는 AI의 설계자와 사용자로서, 더 높은 윤리의식을 가져야 합니다. 기술이 아무리 정교하더라도, 그 기술이 향하는 방향은 사람이어야 하며,
판단의 기준은 통계나 확률이 아니라, 인간의 존엄성과 평등에 뿌리를 두어야 합니다. AI는 인간을 대신해 판단할 수는 있어도, 인간의 가치를 대신할 수는 없습니다. 우리는 기술을 통제하는 주체로서, AI가 우리를 판단하지 못하도록, 그리고 누구에게도 낙인을 찍지 않도록 그 방향을 끊임없이 감시하고 조정해야 합니다. 그것이 바로 인간이 기술을 통해 더 나은 사회를 꿈꿀 수 있는 유일한 길입니다.