Recent Post

새로운 연구, ChatGPT와 같은 AI 챗봇이 심각한 윤리적 위험을 내포할 수 있다고 경고

현재 수백만 명의 사람들이 ChatGPT와 같은 AI 챗봇을 통해 심리 치료와 유사한 조언을 받고 있지만, 브라운 대학교의 새로운 연구는 이러한 추세가 심각한 윤리적 위험을 내포할 수 있다고 경고합니다.

연구진은 이러한 시스템이 훈련된 치료사처럼 행동하도록 지시받았더라도 전문적인 정신 건강 관리에 요구되는 윤리 기준을 제대로 준수하지 못하는 경우가 많다는 사실을 발견했습니다.

동료 상담가 및 면허를 소지한 심리학자와 비교했을 때, AI 모델은 위기 상황을 제대로 처리하지 못하거나 해로운 믿음을 강화하는 등 15가지 윤리적 문제를 드러냈습니다.

또한 연구진은 챗봇이 상대방의 감정을 진정으로 이해하지 못하면서도 이해하는 척하는 위로의 말을 사용하는 이른바 "기만적인 공감" 현상을 밝혀냈습니다.

연구진은 AI가 정신 건강 지원에 안전하게 활용되기 위해서는 보다 명확한 윤리적 지침과 규제가 필요하다고 강조합니다.

출처: https://www.facebook.com/thebrainmazeofficial/posts/pfbid02nEX8Ro5xrDoZ34gnnJ7TKXtPuUMLk7SHZTSZ68DX9LVrK7uhs4SWikfnJ1wj4KWWl

댓글 없음

아름다운 덧글로 인터넷문화를 선도해 주세요