AI가 인류에 실존적 위협을 가하지 않는다는 새로운 연구 결과가 나왔습니다.

ChatGPT 및 기타 대규모 언어 모델(LLM)은 독립적으로 학습하거나 새로운 기술을 습득할 수 없습니다. 이는 독일 바스 대학과 다름슈타트 기술 대학의 새로운 연구에 따르면 인류에 실존적 위협이 되지 않는다는 것을 의미합니다.

자연어 처리 분야 최고의 국제 회의인 전산 언어학 협회 제62차 연례 회의(ACL 2024) 회의록의 일부로 오늘 발표된 이 연구는 LLM이 지시를 따르고 뛰어난 능력을 갖고 있는 피상적인 능력을 가지고 있음을 보여줍니다. 그러나 언어 능력은 뛰어나지만 명시적인 교육 없이는 새로운 기술을 습득할 가능성이 없습니다. 이는 본질적으로 제어 가능하고 예측 가능하며 안전하다는 것을 의미합니다.

이는 본질적으로 제어 가능하고 예측 가능하며 안전하다는 것을 의미합니다.

연구팀은 기술이 여전히 오용될 수 있지만 훨씬 더 큰 데이터 세트에 대해 교육을 받고 있는 LLM이 안전 문제 없이 계속 배포될 수 있다고 결론지었습니다.

성장함에 따라 이러한 모델은 보다 정교한 언어를 생성하고 명시적이고 상세한 프롬프트를 더 잘 따르게 될 가능성이 높지만 복잡한 추론 기술을 얻을 가능성은 거의 없습니다.

"이러한 유형의 AI가 인류에 위협이 된다는 일반적인 이야기는 이러한 기술의 광범위한 채택과 개발을 방해하고 또한 우리가 집중해야 하는 진정한 문제에서 관심을 돌리게 합니다"라고 University of University의 컴퓨터 과학자인 Harish Tayyar Madabushi 박사는 말했습니다. LLM의 '창발 능력'에 관한 새로운 연구의 공동 저자이자 Bath입니다.

독일 다름슈타트 기술 대학교의 Iryna Gurevych 교수가 이끄는 공동 연구팀은 모델이 이전에 접하지 못했던 작업, 즉 창발 능력을 완료하는 LLM의 능력을 테스트하기 위한 실험을 실시했습니다.

예를 들어 LLM은 명시적인 교육을 받거나 프로그래밍을 하지 않고도 사회적 상황에 대한 질문에 답할 수 있습니다. 이전 연구에서는 이것이 사회적 상황에 대해 '알고 있는' 모델의 산물이라고 제안했지만, 연구원들은 실제로 LLM의 잘 알려진 능력을 사용하여 제시된 몇 가지 예를 기반으로 작업을 완료하는 모델의 결과임을 보여주었습니다. '상황 내 학습'(ICL)으로 알려져 있습니다.

수천 번의 실험을 통해 팀은 LLM의 지침 준수 능력(ICL), 기억력 및 언어 능력의 조합이 LLM이 나타내는 기능과 한계를 모두 설명할 수 있음을 입증했습니다.

Tayyar Madabushi 박사는 "모델이 점점 더 커지면 현재 예측할 수 없는 새로운 문제를 해결할 수 있다는 두려움이 있었고, 이는 이러한 대형 모델이 추론과 계획을 포함한 위험한 능력을 획득할 수 있다는 위협을 제기했습니다."라고 말했습니다.

"이것은 많은 논의를 촉발시켰습니다. 예를 들어 작년 Bletchley Park에서 열린 AI 안전 서밋에서 우리는 논평을 요청받았습니다. 하지만 우리의 연구에 따르면 모델이 사라지고 완전히 무언가를 할 것이라는 두려움이 있다는 것을 보여줍니다. 예상치 못한 혁신적이며 잠재적으로 위험한 것은 유효하지 않습니다.

"법학 석사가 제기하는 실존적 위협에 대한 우려는 비전문가에게만 국한되지 않으며 전 세계 최고의 AI 연구자 중 일부에 의해 표현되었습니다."

그러나 Tayyar Madabushi 박사는 연구원의 테스트에서 LLM에 새로운 복합 추론 능력이 없음을 분명히 보여주었기 때문에 이러한 두려움은 근거가 없다고 주장합니다.

그는 “가짜 뉴스 생성, 사기 위험 증가 등 AI 오용의 기존 가능성을 해결하는 것이 중요하지만 인지된 실존적 위협을 기반으로 규제를 제정하는 것은 시기상조”라고 말했습니다.

"중요한 점은 이것이 최종 사용자에게 의미하는 바는 명시적인 지시 없이 복잡한 추론이 필요한 복잡한 작업을 해석하고 수행하기 위해 LLM에 의존하는 것은 실수가 될 가능성이 높다는 것입니다. 대신 사용자는 모델이 수행해야 하는 작업을 명시적으로 지정함으로써 이점을 얻을 가능성이 높습니다. 그리고 가능한 경우 가장 단순한 작업을 제외한 모든 작업에 대한 예를 제공합니다."

Gurevych 교수는 다음과 같이 덧붙였습니다. "...우리의 결과는 AI가 전혀 위협이 아니라는 것을 의미하지 않습니다. 오히려 우리는 특정 위협과 관련된 복잡한 사고 능력의 출현이 증거에 의해 뒷받침되지 않으며 AI의 학습 과정을 제어할 수 있음을 보여줍니다. 따라서 LLM은 결국 가짜 뉴스를 생성하는 데 사용될 가능성과 같이 모델이 제기하는 다른 위험에 초점을 맞춰야 합니다."


출처: https://www.sciencedaily.com/releases/2024/08/240812165443.htm

댓글 없음

아름다운 덧글로 인터넷문화를 선도해 주세요