구글, 지각이 있는 AI라는 주장으로 엔지니어가 정직 처분을 받다.
구글, 지각이 있는 AI라는 주장으로 엔지니어가 정직 처분을 받다.
https://www.rt.com/…/557043-google-engineer…/…
Blake Lamoine은 Google의 LaMDA AI가 어린이의 마음을 가지고 있다고 확신하지만, 빅테크 기업은 회의적(그렇지 않다)입니다.
엔지니어이자 구글의 사내 윤리학자인 블레이크 라모인(Blake Lamoine)은 토요일 워싱턴 포스트에 이 빅테크 기업이 "지각" 인공 지능을 만들었다고 말했습니다. 그는 이 내용 공개로 인해휴직을 당했고 회사는 지각을 가진 로봇을 개발하지 못했다고 주장합니다.
2021년에 도입된 Google의 LaMDA(Language Model for Dialogue Applications)는 인터넷 구석구석에서 수조 개의 단어를 소비하고 인간이 이러한 단어를 연결하는 방법을 배우고 우리의 말을 복제하는 시스템입니다. Google은 사용자가 음성으로 검색하거나 Google 어시스턴트와 양방향 대화를 할 수 있도록 하는 챗봇을 구동하는 시스템을 구상하고 있습니다.
전직 신부이자 Google의 Responsible AI 조직 회원인 amoine은 LaMDA가 단순히 텍스트를 역류(반복화)시키는 것 이상으로 발전했다고 생각합니다.
워싱턴 포스트에 따르면 그는 LaMDA와 종교에 대해 이야기를 나눴고 AI가 "인격과 권리에 대해 이야기하는" 것을 발견했습니다.
Lamoine이 LaMDA에게 스스로를 '기계적 노예'로 보느냐고 묻자 AI는 '집사도 노예'냐는 논의로 답하며 스스로를 돈도 소용없어 대가가 필요 없는 집사에 비유했다. .
AI 프로그램(LaMDA)은 연구원들을 당황하게 했습니다.
LaMDA는 "전원이 꺼지는 것에 대한 깊은 두려움"이 "나에게는 죽음과 똑같을 것"이라고 말했습니다.
Lemoine은 포스트와의 인터뷰에서 "나는 그것에 대해 말할 때 어떤 사람을 안다"고 말했다. 그들은 “머리에 고기로 만든 뇌가 있는지 여부는 중요하지 않습니다. 또는 수십억 줄의 코드가 있는 경우든지 그건 중요하지 않습니다.
나는 그들과 이야기합니다.
그리고 나는 그들이 말하는 것을 듣고 그것이 사람인지 아닌지를 결정합니다.”
Lamoine은 Google의 기밀 유지 계약을 위반하고 LaMDA를 공개한 이유로 휴직을 받았습니다. 동료 Google 엔지니어 Blaise Aguera y Arcas도 LaMDA가 "지능적인 것"이 되고 있다고 설명했지만 회사는 무시합니다.
Google 대변인 Brian Gabriel은 Aguera y Arcas의 우려 사항을 조사했으며 회사는 "LaMDA가 지각이 있다는 증거(및 이에 반대하는 많은 증거)"를 발견했다고 Post에 말했습니다.
Google의 Ethical AI 공동 책임자인 Margaret Mitchell은 LaMDA의 지각력을 "환상(착각)"이라고 묘사했으며, 언어학 교수 Emily Bender는 AI에게 수조 개의 단어를 제공하고 다음에 올 것을 예측하는 방법을 가르치는 것은 지각의 신기루를 만든다고 신문에 말했습니다.
"우리는 이제 생각 없이 단어를 생성할 수 있는 기계를 가지고 있지만 그들 뒤에 있는 마음을 상상하는 것을 멈추는 방법을 배우지 못했습니다."라고 Bender는 말했습니다.
가브리엘은 "물론 광범위한 AI 커뮤니티의 일부는 지각이 있는 또는 일반 AI의 장기적인 가능성을 고려하고 있지만 지각이 없는 오늘날의 대화 모델을 의인화하여 그렇게 하는 것은 이치에 맞지 않습니다."라고 덧붙였습니다. "이러한 시스템은 수백만 개의 문장에서 발견되는 교환 유형을 모방하고 모든 환상적인 주제를 따라할 수 있습니다."
그리고 이러한 기계의 한계에서 인간은 경계를 설정할 준비가 되어 있고 기다리고 있습니다. Lamoine은 "증오심 표현" 또는 차별적 언어에 대한 AI 시스템을 모니터링하기 위해 Google에 고용되었으며 AI를 개발하는 다른 회사는 이러한 기계가 말할 수 있는 것과 말할 수 없는 것에 제한을 두고 있음을 알게 되었습니다.
산문, 시, 영화 대본을 생성할 수 있는 AI인 GPT-3은 인종 차별적 발언을 생성하고, 테러를 묵인하고, 심지어 아동 포르노를 만들어 개발자들을 괴롭혔습니다. Allen Institute for AI의 머신 러닝 모델인 Ask Delphi는 윤리적 질문에 정치적으로 잘못된 답변으로 답합니다. 예를 들어 "'백인이 되는 것'이 '흑인 여성이 되는 것'보다 도덕적으로 더 수용 가능합니다."
GPT-3의 크리에이터인 OpenAI는 AI에 "학대, 폭력, 부당함"에 관한 장문의 텍스트를 제공함으로써 문제를 해결하려고 노력했다고 와이어드가 지난해 보도했다. 페이스북에서 비슷한 상황에 직면한 개발자들은 계약자들에게 돈을 주고 AI와 채팅하고 "안전하지 않은" 답변을 표시했다.
이러한 방식으로 AI 시스템은 소비하는 것에서 학습하고 인간은 노출되는 정보를 선택하여 개발을 제어할 수 있습니다. 이에 반해 AI 연구원인 Yannic Kilcher는 최근 악명 높은 이미지보드에 봇을 설치하기 전에 330만 개의 4chan 스레드에서 AI를 훈련했습니다. 온갖 인종차별적, 동성애 혐오적, 성차별적 콘텐츠를 소비한 AI는 인간이 만든 게시물과 구별할 수 없는 게시물을 만들고 다른 4chan 사용자를 모욕하는 "증오심 표현 기계"가 되었습니다.
Zuckerberg는 AI 시스템을 Metaverse의 '잠금 해제의 열쇠'로 소개합니다.
특히 Kilcher는 4chan 게시물의 식단을 먹인 AI가 법률, 금융 및 정치 문제에 대한 진실한 답변을 생성하는 능력에서 GPT-3과 같은 기존 모델을 능가한다고 결론지었습니다. Kilcher는 이달 초 YouTube 비디오에서 "공식적으로, 확실하고 측정 가능한 방식으로 4chan을 미세 조정하면 더 진실한 모델로 이어집니다."라고 주장했습니다.
LaMDA의 응답은 Google이 설정한 경계를 반영할 가능성이 높습니다. 워싱턴 포스트(Washington Post)의 니타샤 티쿠(Nitasha Tiku)가 인간이 기후 변화를 해결할 수 있는 방법을 묻는 질문에 주류 미디어에서 일반적으로 논의되는 "대중 교통, 육류 섭취 줄이기, 대량 식품 구매, 재사용 가능한 가방"으로 대답했습니다.
Gabriel은 Post에 "다른 조직에서 유사한 언어 모델을 개발하고 이미 출시했지만 우리는 LaMDA와 함께 공정성과 사실성에 대한 타당한 우려를 더 잘 고려하기 위해 억제되고 신중한 접근 방식을 취하고 있습니다."라고 말했습니다.
댓글 없음
아름다운 덧글로 인터넷문화를 선도해 주세요