AI 불평등이란?
AI는 정말 모두에게 공정할까요? 우리가 매일 사용하는 필터, 번역기, 음성 인식기 속에는 어떤 목소리는 지워지고, 어떤 얼굴은 제대로 보이지 않습니다.이 글은 ‘AI 불평등’이라는 주제를 통해, 기술이 어떻게 새로운 차별을 만들고 있는지 살펴봅니다.―
알고리즘이 만든새로운 차별의 시대
―“왜 AI는 내 얼굴을 못 알아볼까요?”MIT 미디어랩의 조이 불램위니(Joy Buolamwini) 박사는 안면 인식 AI 실험 도중, AI가 자신의 얼굴을 인식하지 못한다는 사실을 알게 되었습니다.그녀가 하얀색 가면을 쓰자, 그제야 AI는 얼굴을 인식했죠.“이 기술은 나를 보지 못했습니다.왜냐하면 나 같은 흑인 여성은 데이터에 없었기 때문입니다.”— 조이 불램위니, TED Talk, 2016 —조이는 IBM, Microsoft, Face++ 등 상용 안면 인식 시스템을 분석했고, 다음과 같은 충격적인 결과를 발표했습니다. • 백인 남성의 얼굴 인식 오류율: 0.8%• 유색 인종 여성의 오류율: 34.7%(출처: Gender Shades Project, MIT Media Lab, 2018)―
AI는 누구의 데이터를 배우는가?
―(출처 : Medium)AI는 데이터를 학습해 판단을 내립니다.하지만 그 학습 데이터가 특정 집단, 예를 들어 백인 남성 중심으로 구성되어 있다면?AI는 그 기준을 ‘정상’으로 간주하고, 나머지는 '예외'로 간주하게 되는 거죠.이런 현상을 알고리즘 편향(Algorithmic Bias)이라 부릅니다.―
AI가 만든 차별의 사례들
―
• 안면 인식 오류
IBM, Microsoft, Amazon의 AI는 흑인·아시아 여성 인식률이 매우 낮은 것으로 밝혀졌습니다.
• 채용 알고리즘 차별
아마존은 여성 지원자에게 불리한 평가를 내리는 AI 채용 시스템을 폐기했습니다. AI가 학습한 이력서 대부분이 남성 중심이었기 때문입니다.(출처: Reuters, 2018.10.10)
• 구글 포토 인종차별
구글 포토는 흑인을 ‘고릴라’로 잘못 태깅해 논란이 되었고, 해당 기능은 폐기되었습니다.(출처: The Guardian, 2018.01.12)AI는 인간 사회의 편견을 ‘정답’으로 배운 후, 그 결과를 정당화하며 실행에 옮기기 때문에 이런 일이 발생하는 것입니다. ―
AI의 차별적 기준
―이제 AI 기술은 필터, 자동 번역기, 음성 인식기처럼 우리 일상에 깊숙이 들어와 있습니다.그러나 이런 기술들은 무의식적으로 ‘기준’을 설정하고, 그 기준에서 벗어난 사람들을 배제하기도 합니다.
① 틱톡 필터: 누구의 얼굴이 기준인가?
동남아시아 사용자들은 종종 이렇게 말합니다.“틱톡 필터를 켜면 피부가 하얘지고, 눈이 커지고, 콧대가 올라가요. 내 얼굴이 아닌 것 같아요.”이는 단순한 꾸밈 기능이 아닙니다.소셜미디어 필터들이 백인 중심의 미적 기준을 ‘기본값’으로 설계하고 있다는 점에서, 기술 속 무의식적 차별이 드러납니다.“이 필터들은 우리가 어떤 모습이어야 하는지에 대해 점점 더 좁고 특정한 기준을 강화하고 있다.그리고 많은 경우, 그 기준은 백인, 날씬하고, 피부가 하얀 모습이다.”- MIT Technology Review, 2021.04.02. -(출처 : TikTok @ jmaham88 / 틱톡 필터 Before & After)
② AI 번역기의 언어 편향
구글 번역, 딥엘(DeepL) 같은 AI 번역기는 영어, 프랑스어, 독일어 등 데이터가 많은 언어(high-resource language)는 정확하게 처리합니다.반면 아프리카 지역 언어(스와힐리어, 요루바어), 아시아 소수언어(타갈로그어 등)는 오역이 잦고, 의미도 왜곡되기 쉽습니다. “대형 언어 모델은 영어 사용자에게는 잘 작동하지만, 베트남어 사용자에게는 덜 효과적이며, 나우아틀어 사용자에게는 더욱 그렇습니다.”- Stanford University, 2025 -
③ 음성 인식의 ‘억양 차별’
미국의 언어 현지화 기업 Globalme에 따르면,구글 홈(Google Home)과 아마존 에코(Amazon Echo)는 미국식·영국식 억양에는 높은 인식률을 보였지만, 스페인어, 인도 억양, 중국어 억양에 대해서는 정확도가 크게 떨어졌습니다.• 미국 남부 억양: +3.1% 정확도 상승• 스페인어 억양: -4.2% 인식률 저하AI 음성 인식, 억양에 따라 다르게 작동합니다. 북미 지역 억양은 비교적 정확하게 인식되지만, 스페인어나 인도·중국 억양은 인식률이 크게 떨어졌습니다.(출처: Washington Post, 2018.12.21 / Globalme)워싱턴 포스트는 다음과 같이 지적합니다:“음성 비서들은 영어 억양이 다르면 무슨 말을 하는지조차 이해하지 못할 수 있다. 이는 단순한 기능 문제가 아니라, 누가 기술에 ‘포함되고’, 누가 ‘배제되는지’를 보여주는 문제다.”- 워싱턴포스트, 2018.12.21 -―
AI 불평등, 이렇게 생깁니다.
― 글로벌 기업들은 개발도상국의 데이터를 수집하면서도,그 데이터의 설계와 수익 구조에서는 해당 지역 사람들을 거의 참여시키지 않습니다.이런 구조는 '데이터 식민주의(Data Colonialism)'라 불립니다. 항목북반구 (선진국/기업)남반구 (개발도상국/이용자)데이터 수집✓ 적극적 수집✓ 무의식적 제공설계 참여✓ 기술 주도✕ 기회 없음수익 배분✓ 기업 독점✕ 환원 거의 없음기술 기준백인, 영어 중심주변 언어·문화 배제세계은행은 이렇게 경고합니다:“데이터 흐름과 활용 방식에 대해 많은 국가와 시민은실제로 통제권을 거의 갖고 있지 않다.”- World Bank, 2021 -디지털 격차에 대해 더 알고 싶다면, 다음 글을 참고하세요!↓↓↓디지털 격차란?―
국제사회는어떤 노력을 하고 있을까요?
―(출처 : UNESCO)유네스코(UNESCO)는 2021년, 『인공지능 윤리에 관한 권고안(Recommendation on the Ethics of Artificial Intelligence)』을 193개국 만장일치로 채택했습니다.이 권고안은 다음과 같은 AI 윤리의 기본 원칙을 제시합니다:
• 공정성과 비차별성(Fairness & Non-discrimination)
AI는 인종, 성별, 언어, 억양, 지역에 관계없이 모두를 공평하게 반영해야 합니다.
• 프라이버시와 데이터 보호(Privacy and Data Protection)
사용자의 정체성과 데이터를 기업이 일방적으로 활용해서는 안 되며, 개인의 통제권이 보장되어야 합니다.
• 지속가능성과 포용성(Sustainability & Inclusiveness)
AI는 경제적·문화적 주변부에 있는 사람들도 기술 혜택을 누릴 수 있도록 설계되어야 합니다.
• 설명 가능성(Explainability)
왜 특정한 결과가 나왔는지 사용자에게 이해 가능한 방식으로 설명할 수 있어야 합니다.―
AI 속의 Z세대, 사용자이자 피해자
―(출처 : UNESCO)Z세대는 AI 기술을 ‘신기한 것’이 아니라당연한 환경으로 경험하고 자란 첫 세대입니다.그런데 만약....• 내 얼굴이 자꾸 이상하게 왜곡되고,• 내가 쓰는 언어가 계속 오역되고,• 내가 좋아하는 콘텐츠가 ‘비주류’로 밀려난다면?이건 단순한 취향의 문제가 아닙니다.존재와 정체성이 기술로부터 배제되는 문제입니다.―
우리가 할 수 있는 일
―AI 불평등을 해결하는 출발점은,기술에 대한 비판적 감수성입니다.
▣ 기술을 비판적으로 바라보기
• 추천 알고리즘이 나의 선택을 얼마나 좁히는지 돌아보기• 자동 필터·번역기의 편향성 확인하기
▣ AI 윤리 교육 요구하기
• 학교·대학에서 ‘AI 윤리’, ‘디지털 시민성’ 수업 도입 요구
▣ 포용적 기술 지지하기
• 다양한 언어·억양을 존중하는 기술 선택• 그런 기술을 만드는 기업이나 스타트업 응원하기
▣ 국제 캠페인 참여하기
• UNESCO AI 윤리 선언 공유하기• #FilterOutBias 등 해시태그로 문제 제기하기―
기술이 모두를 위한 것이 되려면
―AI는 결코 중립적이지 않습니다.그 안에는 누가 설계했는가, 어떤 기준이 들어갔는가가 담겨 있습니다.이제 우리가 해야 할 일은,기술 속에서 나의 위치를 묻는 것입니다.“AI 속에서 나는 누구인가?”그 질문이 더 평등한 기술을 여는 첫 걸음이 됩니다.“기술은 중립적이지 않습니다. 기술은 우리가 선택한 가치의 결정체입니다.”- 샤서나 주보프(Shoshana Zuboff), 하버드대 경영대학원 교수- ⟪영상으로 핵심만 쏙쏙!⟫↓↓↓글: 최연제 국장▣ References and Sources• MIT Media Lab (2018), Gender Shades Project ✓ 공식 결과 보기• Reuters (2018.10.10), Amazon scrapped AI recruiting tool that showed bias against women ✓ 공식 기사 보기• The Guardian (2018.01.12), Google Photos once labelled black people ‘gorillas’. Now image labelling is back ✓ 공식 기사 보기• MIT Technology Review (2021.04.02), How beauty filters are changing the way young girls see themselves ✓ 공식 기사 보기• Stanford University (2025.05), How AI is leaving non-English speakers behind ✓ 공식 기사 보기• The Washington Post (2018.12.21), Alexa has a problem with accents ✓ 공식 기사 보기• World Bank (2021), World Development Report: Data for Better Lives ✓ 공식 보고서 보기• UNESCO (2021), Recommendation on the Ethics of Artificial Intelligence ✓ 공식 보고서 보기
2025.07.22