[알쓸문잡] 인공지능에도 성별이 있을까? < 문화일반 < 문화 < 기사본문
Source: http://chunchu.yonsei.ac.kr/news/articleView.html?idxno=32954 Parent: http://chunchu.yonsei.ac.kr/
SNS 기사보내기
이 기사를 공유합니다
닫기
기술이 복제하는 편견의 굴레
지난 1월 라스베이거스에서 열린 세계 최대 규모의 국제 전자제품 박람회(Consumer Electronics Show, CES)에서는 스스로 물리적 환경을 인지하고 판단하는 ‘피지컬 AI(Physical AI)’로의 전환이 뚜렷하게 드러났습니다. 인공지능(AI)이 점차 인간을 닮아가는 가운데 우리 사회의 고정관념이 기술에 그대로 투영되고 있다는 비판이 제기되고 있습니다. AI가 구현하는 인간의 모습은 어떠한가요? 인간의 성별을 구현한 AI를 통해 기술이 재현하는 젠더 문제를 짚어봤습니다.
고정관념을 복제하는 기술
각종 스마트 기기에 탑재된 AI 비서 기능은 출시 당시부터 여성의 목소리로 설정된 경우가 많았습니다. 지난 2011년 AI 개인 비서의 시대를 연 애플의 ‘시리(Siri)’와 아마존의 ‘알렉사(Alexa)’, 마이크로소프트의 ‘코르타나(Cortana)’ 등은 여성의 목소리로만 출시됐습니다. 유네스코(UNESCO)는 지난 2019년 보고서 ‘나는 할 수만 있다면 얼굴을 붉혔을 거예요(I’d Blush If I Could)’를 통해 이를 “여성의 음성을 협조적이고 겸손하다고 간주하는 사회적 편견을 기업이 공학적으로 이용한 결과”라고 지적했습니다.
카를스루에 공대 재스퍼 파인(Jasper Feine) 박사 연구팀은 지난 2019년 발표한 논문 「챗봇 디자인의 성(性) 편향(Gender Bias in Chatbot Design)」을 통해 음성 기반 대화형 에이전트만을 분석한 유네스코 보고서의 한계를 지적하며 텍스트 기반 대화형 에이전트인 챗봇 1천375개를 분석했습니다. 그 결과 시중의 챗봇 대다수가 여성의 이름과 외모로 설정돼 있었습니다. 한국과학기술젠더혁신센터 이혜숙 소장은 “사용자들이 지닌 성 고정관념이 기술의 ‘돕는 역할’을 특정 성별에 고착화했다”고 말했습니다.
▶▶ 생체모방형 체화 지능 로봇 ‘모야(Moya)’.
AI 로봇의 외형 역시 성 고정관념에서 자유롭지 못합니다. 인류학자 제니퍼 로버트슨(Jennifer Robertson)은 지난 2018년 저서 『로보 사피엔스 재패니쿠스』에서 여성형 로봇 ‘HRP-4C’가 풍만한 가슴과 맵시 있고 자연스러운 엉덩이를 강조한 것을 두고 “인간 사회의 ‘문화적 성기’를 로봇에게 부여한 결과”라고 비판했습니다. 1월 30일 중국의 기업 ‘Droidup’에서 공개한 ‘모야(Moya)’는 165cm에 32kg의 외형에 인간과 비슷한 질감과 온도를 갖춰 논란의 중심에 섰습니다. 이 소장은 “이러한 로봇의 보급이 확대된다면 여성의 미(美)의 표준은 ‘165cm에 32kg’라는 그릇된 기준을 심어줄 위험이 있다”고 경고했습니다.
로봇의 외형에 따라 동일한 과제를 수행하더라도 그 결과가 다르게 평가된다는 흥미로운 연구 결과도 있습니다. 국립순천대학교 자유전공학부 신홍임 교수의 지난 2023년 논문 「로봇의 성별에 따른 행동표상, 마음지각과 실수에 대한 용서」에 따르면, 연구 참여자들은 여성 로봇의 경우 남성 로봇보다 자율적 의지와 행동 주체로서의 능력이 상대적으로 부족하다고 평가했습니다. 또한, 남성 로봇보다 여성 로봇의 실수에 더 민감한 경향을 보였습니다. 기자와의 인터뷰에서 신 교수는 “연구 결과는 여성 로봇에 대한 인식에서도 여성을 능력적 차원에서 약한 존재로 보는 시각이 적용될 가능성을 보여준다”고 말했습니다.
그럼에도 계속되는 \ 인공지능의 젠더화
비판의 목소리에도 기업들이 AI에 성별을 입히는 이유는 명확합니다. AI의 의인화는 로봇 시장을 활성화하고 소비자의 심리적 장벽을 허무는 효율적인 마케팅 기술이기 때문입니다. 신 교수는 “AI에 성별을 부여해 의인화할 경우 차가운 기계와도 소통할 수 있다는 인식을 갖게 된다”며 “소비자는 인간과 닮을수록 친밀감을 느끼기에 성별은 당연히 삽입될 수밖에 없는 요소”라고 설명했습니다. 서강대 경영학과 김주영 교수는 “기업은 결국 이윤을 추구하기에 매출에 도움이 된다면 당연히 인간과 닮은 로봇을 계속해 출시할 것”이라고 진단했습니다.
특히 돌봄 시장에서 젠더화된 AI는 강력한 힘을 발휘합니다. 캣츠랩 임연경 연구위원은 “고령화 사회에서 젠더화된 AI가 돌봄 노동을 수행할 때 인간에게 안정감을 제공하는 측면을 무시할 수 없다”며 “혼자 사는 고령 여성이 여성화된 AI 돌봄 로봇을 선호하는 경우처럼 젠더화된 AI는 특정 상황에서 심리적 안전망 역할을 수행한다”고 짚었습니다.
▶▶ 미스터마인드의 '초롱이’. 정서 관리와 안전 확인을 돕는다.
한편, 돌봄 역할이 여전히 여성에게 집중된 현실을 돌봄 로봇이 그대로 재현하며 젠더화된 돌봄 구조를 강화할 수 있다는 우려가 제시됩니다. 지난 2024년 한국여성정책연구원이 발표한 ‘다양한 가족과 변화하는 가치관: 진단 및 시사점’에 따르면 2020~2022년 요양보호사 중 여성의 비율은 평균 88.5%에 달했습니다. 또한 여성가족부의 ‘2023 가족실태조사’에 따르면 가사노동을 아내가 전담하는 비율은 73.3%에 육박했습니다. 실제로 많은 돌봄 로봇에는 전형화된 여성상이 투영됩니다. 미스터마인드의 ‘초롱이’는 여자아이의 외형을 띠며 원더풀플랫폼의 ‘다솜’은 여성의 목소리를 기본 설정으로 제공합니다. 김 교수는 “아무런 비판과 의심 없이 AI 돌봄 로봇에 여성의 신체를 부여한다면 현실에 존재하는 성 고정관념을 강화하는 결과를 낳을 위험이 있다”고 지적했습니다.
AI 시대의 윤리학
지난 2013년 애플은 유네스코의 권고를 받아들여 초기 설정 시 사용자가 직접 목소리의 성별을 선택할 수 있도록 변경했습니다. 아마존 역시 2018년 거부 모드(Disengagement Mode)를 도입해 알렉사가 성적 요청에 “응답하지 않겠다”고 대응하게 했습니다.
성별 구분을 허무는 혁신적 시도도 이어지고 있습니다. 지난 2019년 3월 글로벌 AI 차별 방지 캠페인 단체 ‘이큐얼 에이아이(Equal AI)’는 특정 직업군에 대한 성별 고정관념을 완화하기 위해 세계 최초로 성 정체성 없는 목소리 'Q'를 공개했습니다. 남성·여성·트랜스젠더·논바이너리 등 다양한 젠더에 속한 사람들의 음성을 합성해 만든 Q는 145~175Hz의 중성 음역대를 지녔습니다. 이는 일반적으로 여성의 목소리가 200~250Hz, 남성의 목소리가 100~150Hz의 음역대를 갖는 것과 대비됩니다.
▶▶ 테슬라의 ‘옵티머스(Optimus)’. 2026년 1분기 3세대 양산형 모델 공개 및 배치를 추진 중이다.
지난 2021년 공개된 테슬라의 휴머노이드 로봇 ‘옵티머스(Optimus)’는 기능과 효율을 최우선으로 두며 특정 성별의 신체 곡선이나 인간적 특징을 배제한 중성적이고 기계적인 디자인을 채택했습니다. 2026년 1월 CES에서 공개된 보스턴 다이내믹스의 ‘아틀라스(Atlas)’ 역시 로봇의 도구성을 강조해 디자인을 의도적으로 비인간화했습니다. 기존 휴머노이드와 달리 이목구비 대신 평평한 원형 얼굴에 LED 링만을 탑재했고 남녀의 신체적 특징을 완전히 배제했습니다.
한편, 음성이나 외형 등 겉으로 드러나는 요소를 넘어 AI 개발과 데이터 학습 과정 전반에서 성별·인종·연령·장애·소득·성적 지향 등 다양한 사회적 정체성이 어떻게 반영되는지를 점검하는 근본적 접근이 필요하다는 지적도 나옵니다. 지난 2025년 발표된 마운트 시나이 아이칸 의과대학의 논문 「의료 분야의 인공지능은 공정하게 활용되고 있는가?(Is AI in medicine playing fair?)」도 “대규모 언어모델(LLM*)이 환자의 임상 상태가 아닌 사회적 배경에 따라 결정을 내릴 수 있다”고 경고합니다. 응급실 환자 1천 명의 의료 기록 170만 건을 9개의 LLM으로 분석한 결과 흑인·무주택자·성소수자에겐 긴급 치료나 정신건강 평가를 더 자주 권고하는 경향이 나타났습니다. 특히 노숙자에게 정신건강 평가를 권고하는 비율은 6~7배 높았습니다. 또한 고소득 환자에겐 CT, MRI 등 고급 검사를 권고하는 반면, 저소득 환자에겐 기본 검사만 권하거나 추가 검사가 필요 없다고 판단하는 경향도 확인됐습니다. 이 소장은 “AI가 결과를 도출한 근거와 과정을 인간이 이해할 수 있도록 알고리즘이 투명하게 운영돼야 한다”며 “설계·개발·배포·사용 등 전 과정에서 윤리적·법적 책임을 명확히 져야 한다”고 강조했습니다.
인공지능의 편향성을 근본적으로 배제하기 위해선 법적·행정적 차원의 안전장치 마련이 시급합니다. 지난 2020년 통과된 「지능정보화 기본법」은 AI의 윤리성을 강조하면서도 포괄적인 차별 금지 원칙만을 두고 있어 젠더 고정관념을 명시적으로 금지하는 조항이 빠져 있습니다. 반면 유럽연합(EU)은 지난 2024년 5월 「인공지능법(AI Act)」을 도입해 AI 개발 및 배포 전반에서 인종·젠더·성적 지향 등 특성을 바탕으로 한 차별적 기술을 엄격히 규제하고 있습니다. 이 소장은 “AI와 공존하는 새로운 세계를 맞이하기 위해서는 새로운 윤리 확립과 더불어 법과 제도의 능동적 진화를 모색해야 한다”고 전했습니다.
임 연구위원은 “AI의 여러 편향성을 이해하고, 이것이 단순 도구가 아닌 우리의 수행 조건을 바꾸는 근원적 생태환경임을 이해하는 비판적 리터러시의 함양이 필요하다”고 제언했습니다. 과학 기술에 인문학적 성찰이 결합할 때 AI는 비로소 인간 사회의 다양성을 존중하는 진정한 동반자로 거듭날 수 있을 것입니다. 점점 우리 곁으로 가까워지는 AI가 인간의 편견을 복제해 낼 가능성에 대해 끊임없이 문제를 제기해야 할 때입니다.
글 최예원 기자\ muna_sagewon@yonsei.ac.kr
<사진제공 Droidup Wechat>\ <사진제공 Tesla 유튜브 캡처>\ <사진제공 미스터마인드>
* LLM: 방대한 데이터를 학습해 인간처럼 언어를 이해·요약· 번역·생성하는 AI 기술\
최예원 기자 muna_sagewon@yonsei.ac.kr
저작권자 © 연세춘추 무단전재 및 재배포 금지
[알쓸문잡] “사장님, 두쫀쿠 있나요?” 두바이 쫀득 쿠키 유행이 지나간 자리
우리대학교, 2026학년도 학부·대학원 등록금 2.6% 인상해
[알쓸문잡] “사장님, 두쫀쿠 있나요?” 두바이 쫀득 쿠키 유행이 지나간 자리
더보기
닫기
닫기
내 댓글 모음
닫기