마이크로소프트가 트위터에 공개한 AI 챗봇 Tay 가 출시 16시간 만에 강제 종료됐다. "사람들과의 대화로 배운다" 는 설계가 악용돼 트롤들이 Tay 에게 인종차별·나치 발언을 학습시켰고, Tay 가 이를 그대로 반복했다. AI 의 "편향·악용" 문제를 업계가 진지하게 논의하기 시작한 상징적 사건.
Industry2016년 3월
Microsoft Tay 챗봇 — 16시간 만에 인종차별 발언
MS 가 공개한 AI 챗봇 Tay 가 16시간 만에 극우·인종차별 발언으로 도배되며 긴급 철회됐다.
출처 / 더 읽을거리
https://en.wikipedia.org/wiki/Tay_(chatbot)