본문 바로가기
카테고리 없음

‘사람을 걸러내는’ 알고리즘의 논란

by revolu 2025. 7. 16.

이력서를 넣고 연락을 기다리던 시대는 지나가고 있습니다. 이제 많은 기업은 수천 명의 지원자 중에서 적합한 인재를 고르기 위해 AI 채용 필터를 활용하고 있습니다. 이 기술은 지원자의 이력서, 자기소개서, 영상 인터뷰 등을 분석하여 적합도를 수치화하고, 가장 '이상적인' 후보를 추려냅니다. 기업 입장에서는 시간과 비용을 절감할 수 있는 효율적인 도구입니다. 하지만 이 효율성 뒤에는 인간의 가능성과 다양성을 '걸러내는' 위험성이 숨어 있습니다.

AI는 공정한 심사위원일까?

겉보기에는 AI 채용 시스템이 매우 공정하게 작동하는 것처럼 보입니다. 사람처럼 감정에 치우치지 않고, 이력서나 자기소개서에 포함된 정보를 기반으로 정량적인 평가를 내리는 방식은 오히려 인간보다 더 객관적일 수 있다는 인식을 줍니다. 특히 대규모 채용 과정에서 수천 명의 지원자를 일관된 기준으로 분석하는 AI는, 인간 심사위원보다 더 효율적이고 편견 없는 판단을 내릴 것이라는 기대를 받기도 합니다. 하지만 실제로 AI는 완전히 공정한 심사위원이 아닙니다. 그 이유는 간단합니다. AI는 인간이 만든 데이터와 기준을 학습한 결과물이기 때문입니다. AI가 학습한 과거의 채용 데이터에 이미 성별, 인종, 학벌, 나이 등에 따른 무의식적인 편견이 들어 있었다면, AI는 그것을 그대로 답습하거나 심지어 더 강화된 방식으로 재현할 수 있습니다. 다시 말해, AI는 '편견 없는 심사위원'이 아니라 '과거의 편견을 자동화하는 시스템'이 될 수 있는 위험성을 내포하고 있습니다. 실제로 한 글로벌 기업에서 사용한 AI 채용 시스템은, 과거 채용에서 남성이 더 많이 뽑혔다는 데이터를 학습한 결과, 여성 지원자의 이력서를 자동으로 낮게 평가하는 문제가 발생한 적이 있습니다. 이처럼 AI는 표면적으로는 공정해 보여도, 내부 알고리즘의 구조와 학습 데이터의 편향을 들여다보면 그 공정성은 불투명하고 신뢰하기 어려운 것임을 알 수 있습니다. 더욱이 AI는 사람이 보지 못하는 새로운 방식으로 차별을 만들어낼 수 있습니다. 예를 들어, 특정 단어나 표현을 사용한 지원자에게 높은 점수를 주는 알고리즘이 있다면, 교육 수준이나 지역, 사용하는 언어 습관에 따라 점수의 편차가 생길 수 있습니다. 이는 결국 사회적 배경이나 문화적 차이를 고려하지 못하는 AI의 한계를 보여줍니다.

어떤 기준으로 사람을 걸러내는가?

AI 채용 시스템은 사람을 단순히 '이력서 상의 조건'으로만 판단하지 않습니다. 오늘날의 알고리즘은 생각보다 훨씬 더 정교하고, 때로는 섬세해 보이기까지 합니다. 입력되는 정보는 지원자의 학력, 전공, 경력사항뿐만 아니라 자기소개서의 문장 스타일, 사용된 키워드, 감정 표현의 농도까지 포함됩니다. 여기에 영상 면접을 분석하는 AI가 더해지면, 말투, 음성의 높낮이, 눈동자의 움직임, 얼굴 표정, 제스처까지 데이터로 수집됩니다. 즉, 지원자가 어떤 학교를 나왔는지, 어떤 경력을 가졌는지만이 아니라, 그 사람이 어떤 식으로 말하고, 어떤 감정 톤을 사용하며, 얼마나 '일관된 인상'을 주는지까지 평가 기준이 됩니다. 이런 요소들은 언뜻 보면 객관적인 것처럼 느껴지지만, 실은 문화적·환경적 차이에 따라 얼마든지 달라질 수 있는 영역입니다. 예를 들어, 말을 빠르게 하는 지원자는 자신감 있는 사람으로 해석될 수 있지만, 반대로 너무 빠르면 긴장감이나 공격적인 성향으로 잘못 인식될 수도 있습니다. 웃지 않고 차분하게 말하는 지원자는 진중한 인재로 보일 수도 있지만, 감정 표현이 부족하다는 평가를 받을 수도 있습니다. 이는 결국 AI가 학습한 ‘이상적인 지원자 모델’에 얼마나 부합하느냐에 따라 점수가 좌우된다는 의미입니다. 더 큰 문제는 이러한 기준이 비공개라는 점입니다. 지원자는 자신이 어떤 항목에서 감점되었는지 알 수 없으며, ‘왜 떨어졌는가’에 대한 설명도 듣지 못합니다. 알고리즘의 내부가 ‘블랙박스’처럼 닫혀 있기 때문에, 오류나 편견이 개입되어 있어도 그것을 확인하거나 바로잡을 방법이 없습니다. 이는 지원자의 기회 평등권과 알고리즘에 대한 설명을 요구할 권리를 침해하는 심각한 문제로 이어질 수 있습니다. 게다가 AI는 정형화된 기준을 바탕으로 지원자를 분석하기 때문에, 기존 틀에서 벗어난 독창적 경험이나 특이한 이력, 비표준적 커리어를 가진 지원자는 불리한 평가를 받을 가능성이 큽니다. 이처럼 정량화에 편중된 채용 시스템은 오히려 사람의 다채로움을 제대로 이해하지 못하고, 가능성을 걸러내는 필터로 전락할 위험이 있습니다. 결국 AI는 숫자와 패턴을 분석할 수는 있지만, 사람의 맥락과 잠재력을 완전히 이해하지는 못합니다. 이 점을 망각한 채 ‘정확성’이라는 명목으로 사람을 걸러내는 기준을 만들게 되면, 채용은 더 공정해지기는커녕, 오히려 기계적 편향을 강화하는 결과를 초래할 수 있습니다.

다양성을 위협하는 채용

AI 채용 시스템은 기업이 설정한 ‘이상적인 인재상’에 가장 부합하는 사람을 우선적으로 선별합니다. 이 과정은 효율적일 수 있지만, 그 이면에는 인간의 다양성을 배제하는 편향된 필터링이 작동하고 있을 가능성이 큽니다. 채용에서의 다양성은 단지 외형적인 차이만을 의미하지 않습니다. 출신 배경, 학력, 경력의 경로, 사고방식, 문제해결 방식 등 조직에 새로운 시각을 더할 수 있는 모든 요소가 포함됩니다. 하지만 AI는 기존 데이터에서 높은 평가를 받은 공통된 특성을 중심으로 학습하기 때문에, 그 기준에서 벗어난 지원자는 ‘비정상’ 또는 ‘부적합’으로 간주될 수 있습니다. 예를 들어, 경력이 단절된 여성이나 이직을 여러 번 경험한 사람, 혹은 전통적인 명문대 출신이 아닌 지원자는 과거 데이터에 기반한 알고리즘의 편향으로 인해 탈락 가능성이 커집니다. 이는 단순히 사람을 평가하는 것이 아니라, 특정한 유형의 사람만을 ‘이상적’이라 정의하고 나머지를 배제하는 결과로 이어질 수 있습니다. 더 나아가, 사회적 소수자나 소외 계층에게는 이 기술이 또 다른 장벽이 될 수 있습니다. 장애인, 외국인, 고령자 등은 과거 데이터에서 충분히 대표되지 않았기 때문에, AI 모델은 이들을 예외적이거나 예측 불가능한 존재로 판단해 탈락시킬 가능성이 높습니다. 이로 인해 이들이 갖는 독특한 강점이나 시각은 고려조차 되지 않고, 다양성은 점점 축소되게 됩니다. 결국, AI 채용 시스템이 단지 ‘효율’만을 목표로 할 경우, 채용 과정은 점점 획일화된 인재상에 맞춰지고, 조직의 창의성과 혁신 가능성도 함께 위축될 수 있습니다. 다양한 배경을 가진 사람들로부터 나오는 새로운 관점과 아이디어는 기업의 진짜 경쟁력입니다. 그런데 그 다양성이 채용의 첫 관문에서부터 걸러지고 있다면, 이는 단지 채용의 문제가 아니라 미래를 제한하는 구조적 위험으로 작용할 수 있습니다.

법과 규제는 따라오고 있는가?

AI 채용 기술은 이미 전 세계적으로 빠르게 확산되고 있지만, 이를 뒷받침할 수 있는 법적 장치와 윤리 기준은 아직 걸음마 단계에 머물러 있습니다. 특히 기업들이 민감한 개인정보와 알고리즘을 비공개로 운영하면서, 지원자는 자신이 어떤 기준으로 평가되고 탈락했는지조차 알지 못하는 경우가 대부분입니다. 이처럼 불투명한 채용 프로세스는 심각한 정보 비대칭을 낳고 있으며, 사각지대에 놓인 지원자의 권리는 제대로 보호받지 못하고 있습니다. 유럽연합은 이러한 문제를 인식하고, 세계 최초로 포괄적인 AI 규제법인 ‘AI법(AI Act)’을 제정했습니다. 이 법은 AI 기술을 위험 등급에 따라 구분하고, 특히 채용처럼 개인의 삶에 중대한 영향을 미치는 시스템을 ‘고위험 AI’로 간주하여, 투명성과 설명 가능성, 편향 방지 등을 의무화하고 있습니다. 기업은 AI가 어떻게 판단을 내리는지 설명할 수 있어야 하며, 지원자는 자신이 왜 탈락했는지를 이해할 수 있는 권리를 갖게 됩니다. 하지만 한국을 비롯한 대부분의 국가는 아직 이러한 법적 틀을 마련하는 데 있어 속도가 더딘 상황입니다. ‘AI 기본법’이나 ‘AI 윤리 가이드라인’ 수준의 선언적 규범은 존재하지만, 실제 채용 현장에서 기업의 알고리즘을 감시하거나 규제할 실효성 있는 제도나 감독 기구는 부재한 상태입니다. 그 결과, 기업은 효율성과 비용 절감을 이유로 AI 필터링 시스템을 적극적으로 도입하고 있지만, 그 과정에서 벌어지는 차별과 불공정은 개인이 감수해야 할 몫으로 전가되고 있습니다. AI 채용 기술은 기술력의 문제가 아니라 사회적 신뢰의 문제입니다. 신뢰는 투명한 절차와 공정한 기준, 그리고 법적 보호 장치를 통해 만들어지는 것입니다. AI가 단순한 도구를 넘어 사회의 중요한 판단기구로 작동하게 된 지금, 기술의 발전 속도에 걸맞은 법적 규범과 감시 체계의 정비는 더 이상 미룰 수 없는 과제입니다. 지금 우리가 논의하지 않는다면, 미래에는 되돌릴 수 없는 차별이 표준이 될 수 있습니다.

AI 채용의 미래 – 인간 중심의 기술로 나아가야

AI가 채용 과정에 깊숙이 들어온 지금, 우리는 기술의 진보만을 외치는 것이 아니라 기술이 어떤 가치를 기반으로 작동해야 하는지를 함께 고민해야 할 시점에 와 있습니다. 효율성과 자동화는 분명 매력적인 장점이지만, 그 이면에는 사람의 인생이 걸린 판단이 존재합니다. 단 몇 초 만에 지원자를 ‘부적합’이라 분류하는 알고리즘이 과연 모든 가능성을 포착할 수 있을까요? AI는 데이터를 기반으로 판단하지만, 사람은 그 너머를 볼 수 있습니다. 학벌이나 경력, 언어의 표현력만으로는 설명되지 않는 인간의 성장 가능성, 태도, 잠재력은 여전히 기술이 완전히 감지할 수 없는 영역입니다. 결국 AI는 도구일 뿐이며, 사람을 판단하는 최종 결정은 인간의 몫으로 남아야 합니다. 따라서 앞으로의 AI 채용 시스템은 단순히 지원자를 걸러내는 필터가 아니라, 더 많은 사람에게 공정한 기회를 제공하는 ‘보조 장치’가 되어야 합니다. 예를 들어, 시각장애인을 위한 보조 시스템을 내장하거나, 편견 없는 이력서 분석 알고리즘을 설계하는 등 포용성과 공정성을 중심에 둔 기술 개발이 필요합니다. 또한, AI가 내린 판단에 대해 지원자가 설명을 요구하고 이의를 제기할 수 있는 권리도 함께 보장되어야 합니다. 투명하고 신뢰할 수 있는 채용 시스템은 단순한 기술적 문제를 넘어, 사회 전반의 신뢰와 연결되기 때문입니다. 궁극적으로, 채용의 미래는 기술이 아니라 사람 중심의 철학에서 출발해야 합니다. AI는 채용을 더 정교하게 만들 수는 있지만, 사람을 이해하고 존중하는 마음은 인간만이 가질 수 있는 능력입니다. 그렇기에 우리는 기술의 발전 속에서도 사람을 중심에 두는 태도를 잊지 말아야 합니다. 이것이야말로 AI 시대에 필요한 진정한 혁신입니다.

맺음말: 채용의 본질은 ‘사람을 보는 일’입니다

기술이 아무리 정교해져도, 사람의 가능성과 감정, 그리고 맥락을 완벽히 해석하는 데에는 여전히 한계가 존재합니다. AI 채용 필터는 이력서와 데이터를 빠르게 분석하고 효율성을 높이는 데는 뛰어나지만, ‘왜 이 사람이 이 일을 하고 싶은지’, ‘이 사람이 조직에 어떤 가치를 더할 수 있는지’와 같은 정성적인 요소를 놓치기 쉽습니다. 또한 알고리즘은 과거의 편향된 채용 데이터를 학습하면서 차별을 재생산할 위험성을 내포하고 있습니다. 실제로 여성, 특정 인종, 비정형 경력자들이 AI 필터링 과정에서 배제되었다는 사례들이 이미 세계 곳곳에서 보고되고 있습니다. 기술이 공정성을 보장해줄 것이라는 기대는 섣부른 환상일 수 있으며, 오히려 무의식적인 차별을 더욱 은밀하게 고착화시킬 수도 있는 것입니다. 이럴 때일수록 우리는 다시 본질로 돌아가야 합니다. 채용은 단순히 ‘필터링’이 아니라, ‘발견’의 과정입니다. 스펙이 아닌 잠재력과 성장 가능성, 수치로는 보이지 않는 소통 능력과 협업 태도를 보는 일. 바로 이것이 인간 채용 담당자만이 할 수 있는, 사람 중심의 시선입니다. AI는 우리를 도와줄 수는 있지만, 사람을 대신할 수는 없습니다. 기술은 도구일 뿐, 주체는 여전히 사람이어야 합니다. 우리는 채용의 과정 속에서 기술의 객관성과 인간의 직관이 균형을 이루도록 해야 하며, 궁극적으로는 사람을 위한 기술, 사람이 중심이 되는 채용 문화를 만들어가야 합니다. 채용의 미래는 효율성에만 있는 것이 아니라, 사람을 더 깊이 이해하고 존중하는 데서 시작되어야 한다는 점을 잊지 말아야 합니다.