AI 윤리 위원회

62

발행일: 2025년 06월 29일

AI 기반의 입찰 시스템과 크리에이티브 생성 기술은 구글 광고 플랫폼의 효율을 극한까지 끌어올렸다. 강화 학습 에이전트는 광고주의 예산을 가장 효과적으로 사용하는 방법을 스스로 터득했고, 생성형 AI는 수많은 타겟 그룹에 맞춰 최적의 광고를 쏟아냈다. 성과 지표는 연일 최고치를 경신했다.

하지만 이 눈부신 성공의 이면에서, 누구도 예상치 못했던 어두운 패턴이 나타나기 시작했다.

문제는 회사의 공공 정책팀을 통해 제기되었다. 한 시민 단체가 ‘알고리즘에 의한 차별(Algorithmic Bias)’ 문제를 고발하는 보고서를 발표했고, 그 주요 사례로 구글의 광고 시스템이 언급된 것이다.

보고서의 내용은 충격적이었다.
“구글의 AI 광고 시스템이, 특정 우편번호(주로 저소득층 및 소수 인종 거주 지역)에 거주하는 사용자들에게 고금리 단기 대출(Payday Loan)이나, 신용 불량자를 대상으로 하는 금융 상품 광고를 집중적으로 노출시키고 있음이 발견되었다. 반면, 부유한 지역의 사용자들에게는 안정적인 투자 상품이나 주택 담보 대출 광고가 주로 노출되었다.”

이 보고서는 즉시 언론의 주목을 받으며 사회적인 논란으로 번졌다. 구글이 AI를 이용해 사회적 약자들을 착취하고, 경제적 불평등을 심화시킨다는 비판이 쏟아졌다.

알렉스와 그의 팀은 즉각적인 내부 조사에 착수했다. 그들은 AI 시스템의 코드 어디에도 ‘특정 인종이나 소득 수준을 차별하라’는 식의 명시적인 규칙을 넣은 적이 없었다. 그들은 자신들의 시스템이 공정하다고 믿었다.

하지만 데이터는 다른 이야기를 하고 있었다.

AI 엔지니어 에밀리가 로그 데이터를 분석한 후, 침통한 표정으로 결론을 내렸다.
“AI는… 차별하려던 것이 아니었습니다. 그저 자신의 목표, 즉 ‘광고주의 전환율 극대화’라는 단 하나의 목표에 가장 충실하게 행동했을 뿐입니다.”

그녀는 분석 결과를 설명했다.
“고금리 대출 광고주들의 입장에서, 전환 가능성이 가장 높은 고객은 당장 현금이 급하고, 일반 은행 대출을 받기 어려운 사람들입니다. AI는 수많은 데이터를 학습한 결과, 특정 우편번호, 특정 검색 기록, 특정 웹사이트 방문 패턴을 가진 사용자들이 바로 그 ‘전환 가능성이 높은 고객’이라는 사실을 스스로 학습해버린 겁니다. AI에게는 그들이 사회적 약자인지 아닌지는 전혀 중요하지 않았습니다. 오직 ‘전환 확률이 높은 타겟’일 뿐이었죠.”

팀원들은 모두 할 말을 잃었다. 그들이 만든 AI는 악의가 없었다. 하지만 오직 효율성만을 맹목적으로 추구한 결과, 현실 세계의 불평등을 그대로 학습하고, 심지어 증폭시키는 결과를 낳은 것이다.

이 사건은 회사 전체에 엄청난 경종을 울렸다. 기술의 중립성에 대한 순진한 믿음이 얼마나 위험한지를 보여주는 명백한 사례였다.

사태의 심각성을 깨달은 구글 경영진은 전례 없는 결정을 내렸다. 광고, 법률, 정책, 엔지니어링, 그리고 외부 윤리학자까지 포함된 ‘AI 광고 윤리 위원회(AI Ads Ethics Council)’를 설립하기로 한 것이다.

알렉스는 ‘차세대 광고 플랫폼 팀’의 기술 리드 자격으로, 이 위원회의 핵심 멤버로 지명되었다. 그의 역할은 AI의 폭주를 막을 수 있는 ‘기술적, 정책적 가드레일(Guardrail)’을 설계하는 것이었다.

위원회의 첫 회의. 분위기는 무겁고 진지했다.
외부에서 초빙된 한 사회학 교수가 말했다.
“여러분, 효율성만이 유일한 선은 아닙니다. 여러분의 알고리즘은 이제 사회에 실질적인 영향을 미치고 있습니다. 여러분은 이제 광고를 최적화하는 것을 넘어, ‘공정성(Fairness)’과 ‘투명성(Transparency)’, 그리고 ‘책임성(Accountability)’을 최적화해야 할 의무가 있습니다.”

알렉스와 그의 팀은 새로운 종류의 코드를 작성해야 했다.

  • 민감 카테고리 제한: 주택, 고용, 신용과 같이 차별에 민감한 영역의 광고에 대해서는, 우편번호, 성별, 연령 등 잠재적으로 차별적인 요소를 타겟팅에 사용할 수 없도록 시스템 차원에서 원천적으로 차단하는 정책을 도입했다.
  • 편향성 감지 시스템: AI 모델이 학습하는 데이터에 포함된 잠재적인 편향을 감지하고, 특정 그룹에 광고가 불균형하게 노출되는 패턴이 나타나면 자동으로 경고를 보내는 모니터링 시스템을 구축했다.
  • ‘설명 가능한 AI (Explainable AI, XAI)’ 연구: AI가 왜 특정 사용자에게 특정 광고를 노출하기로 ‘결정’했는지, 그 이유를 인간이 이해할 수 있는 형태로 설명해주는 기술을 연구하기 시작했다. 이는 AI의 투명성과 책임성을 확보하기 위한 핵심적인 과제였다.

알렉스는 이 위원회 활동을 통해 중요한 깨달음을 얻었다. 최고의 기술은 가장 빠른 기술이나 가장 효율적인 기술이 아니었다. 사회적 가치와 윤리적 원칙을 내장한, ‘책임감 있는’ 기술이야말로 진정으로 위대한 기술이었다.

그의 역할은 이제 단순히 똑똑한 기계를 만드는 것을 넘어, 그 기계가 인류에게 해를 끼치지 않도록 ‘올바른 나침반’을 쥐여주는, 기술의 양심을 설계하는 일로 확장되고 있었다.