광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[내면의 독백을 하는 인공지능] 마치 인간 내면의 독백처럼, 답변을 뱉어내기 전에 생각하기 위해 잠시 멈춰서 작업 내용을 보여주고 사용자에게 어떤 응답이 가장 정확한지 말하도록 요청하는 AI 모델이 개발되었다. 연구자들은 이 모델이 언어 모델과 인간과 유사한 추론 능력 사이의 격차를 줄일 수 있을 것이라고 기대한다.

https://futurism.com/the-byte/ai-inner-monologue

운영자 | 기사입력 2024/03/22 [00:00]

[내면의 독백을 하는 인공지능] 마치 인간 내면의 독백처럼, 답변을 뱉어내기 전에 생각하기 위해 잠시 멈춰서 작업 내용을 보여주고 사용자에게 어떤 응답이 가장 정확한지 말하도록 요청하는 AI 모델이 개발되었다. 연구자들은 이 모델이 언어 모델과 인간과 유사한 추론 능력 사이의 격차를 줄일 수 있을 것이라고 기대한다.

https://futurism.com/the-byte/ai-inner-monologue

운영자 | 입력 : 2024/03/22 [00:00]

고로, AI는 존재한다.

AI에게 내면의 독백을 주면 AI는 스스로 더 똑똑해지도록 가르치기 시작하는 것 같다.

아직 동료 검토가 이루어지지 않은 논문에서 스탠포드 연구원과 스스로를 "Notbad AI"라고 부르는 그룹이 답변을 뱉어내기 전에 '생각'하기 위해 잠시 멈춰서 작업 내용을 보여주고 사용자에게 어떤 응답이 가장 정확한지 말하도록 요청하는 AI 모델을 만들기 위해 협력했다.

 

조용한 독학 추론가 Quiet Self-Taught Reasoner(줄여서 Quiet-STaR)를 개발한 팀은 자신의 모델이 원래 독학으로 추론가 알고리즘을 사용하여 2022년에 달성한 추론을 스스로 학습할 수 있을 뿐만 아니라 그렇게 하기를 원했다프롬프트에 대답하기 전에 "조용히", 이상적으로는 우리가 말하기 전에 실행되는 인간 내면의 독백처럼 작동한다.

 

"흥미롭게도스탠포드의 에릭 젤리캄(Eric Zelikam) X(이전에는 X였던 Twitter 스레드)에서 자신이 제작하는 데 도움을 준 새로운 모델에 대해 열광한 것처럼 "다양한 웹 텍스트에 대한 자가 학습 추론이 자동으로 다른 추론을 향상시킨다!"라고 말했다.

 

당신이 그것을 구축하는 경우

이 명상적인 AI를 만들기 위해 연구팀은 오픈 소스 대형 언어 모델(LLM) Mistral 7B Quiet-STaR을 구축했다. Hugging Face AI 커뮤니티에 따르면 이 모델은 70억 개의 매개변수에 대해 교육을 받았으며 더 나은 성능을 발휘할 수 있다고 한다. Meta Llama 모델의 최신 버전이다.

 

Quiet-STaR은 본질적으로 출력에 대한 추론을 제공할 때 작업을 보여주도록 프로그래밍되었으며모델 사용자는 어떤 응답이 가장 정확한지 선택할 수 있었다논문에 따르면 이 접근 방식을 통해 모델의 정확도는 47.2%로 나타났다이는 특별히 인상적이지는 않지만 추가 추론 훈련 없이 얻은 36.3%보다 향상된 수치이다.

 

모델의 수학 성능은 여전히 매우 낮아서 문제의 10.9%만 맞혔지만사전 훈련된 Quiet-STaR은 문제의 5.9%만 맞혔다이는 훈련 중에 수학 능력이 두 배로 향상되었음을 의미한다.

 

이러한 결과 중 어느 것도 우리를 놀라게 하지 않다그러나 현재까지 OpenAI ChatGPT  Google Gemini와 같은 챗봇은 상식적 추론에 형편없기 때문에 매우 흥미롭다연구자들은 논문에서 Quiet-STAR "언어 모델과 인간과 같은 추론 능력 사이의 격차를 줄이는도약을 가져올 수 있다고 제안한다.

 

OpenAI가 신비롭고 놀랍도록 비슷하게 들리는 Q*("큐 스타"로 발음모델을 사용하여 그런 종류의 일을 할 수 있을까단지 시간이 말해 줄 것이다.

 

 
인공지능, AI, 내면 독백 관련기사목록
PHOTO
1/6
광고
광고
광고
광고
광고
광고
많이 본 기사
AI메타홈서비스 많이 본 기사