ai불평등1 알고리즘이 만든 사회적 차별 우리는 종종 기술을 ‘중립적’이라고 생각합니다. 특히 인공지능이나 알고리즘 같은 시스템은 감정이나 편견이 없기 때문에 더 공정할 것이라 기대하죠. 하지만 현실은 그 반대입니다. 알고리즘은 ‘사람이 만든 데이터’를 학습하며, 그 안에 숨은 사회적 편견과 차별을 고스란히 답습합니다. 심지어는 그 차별을 더 은밀하고 체계적으로 재생산합니다.데이터는 왜 ‘중립적’이지 않은가?우리는 종종 데이터를 '객관적인 숫자'로 받아들입니다. 인간은 편견이 있어도, 숫자는 진실을 말해준다고 믿기 쉽습니다. 하지만 데이터는 진공 상태에서 생성되지 않습니다. 데이터는 현실을 반영한 것이 아니라, 현실을 '기록한 방식'의 산물입니다. 예를 들어, 범죄 데이터를 살펴보면 특정 지역의 범죄율이 높다고 판단할 수 있습니다. 그러나 이 .. 2025. 7. 12. 이전 1 다음