광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[인공지능, 인류 제거 리스크] AI의 대부 영국의 컴퓨터 과학자는 인류를 제거할 약간의 위험이 있다고 말한다. 인공 일반 지능(AGI)의 출현이 우리가 생각하는 것보다 더 가까워지는 중추적인 순간에 있다. 인류는 일이 완전히 통제 불능 상태가 되기 전에 있으며, AI 기술(AGI 여부에 관계없이)이 어떻게 권력에 굶주린 정부와 기업에 의해 독점될 수 있는지가 실제 문제이다.

https://futurism.com/the-byte/godfather-ai-risk-eliminate-humanity

운영자 | 기사입력 2023/03/29 [00:00]

[인공지능, 인류 제거 리스크] AI의 대부 영국의 컴퓨터 과학자는 인류를 제거할 약간의 위험이 있다고 말한다. 인공 일반 지능(AGI)의 출현이 우리가 생각하는 것보다 더 가까워지는 중추적인 순간에 있다. 인류는 일이 완전히 통제 불능 상태가 되기 전에 있으며, AI 기술(AGI 여부에 관계없이)이 어떻게 권력에 굶주린 정부와 기업에 의해 독점될 수 있는지가 실제 문제이다.

https://futurism.com/the-byte/godfather-ai-risk-eliminate-humanity

운영자 | 입력 : 2023/03/29 [00:00]

0이 아닌 확률

영국의 컴퓨터 과학자 제프리 힌튼은 '인공지능의 대부'로 가장 잘 알려져 있다신경망에 대한 그의 중요한 작업은 인간 인지 프로세스를 모방하여 틀을 깨고 오늘날 머신러닝 모델의 기초를 형성했다.

 

그리고 이제 CBS News와의 긴 인터뷰에서 힌튼은 AI의 현재 상태에 대한 자신의 생각을 공유했다그는 인공 일반 지능(AGI)의 출현이 우리가 생각하는 것보다 더 가까워지는 "중추적인 순간"에 있다고 생각한다.

 

힌튼은 "아주 최근까지만 해도 범용 AI가 나오기까지 20~50년은 걸릴 것이라고 생각했다"고 말했다. "그리고 지금은 20년 또는 그 이하일 수 있다고 생각한다."

 

AGI는 인간 또는 초인간 수준의 지능을 나타낼 수 있는 잠재적 AI를 설명하는 용어이다명백하게 전문화되기보다는 AGI는 방대한 문제를 해결하기 위해 스스로 학습하고 생각할 수 있다.

현재로서는 현재 모델의 기능을 강화하기 위해 AGI의 징조가 자주 사용된다그러나 AGI의 도래를 환영하는 업계의 허풍이나 AGI가 우리에게 나타나기까지 실제로 얼마나 걸릴지에 관계없이 힌튼은 우리가 지금 그 결과를 신중하게 고려해야 한다고 말한다여기에는 인류를 말살하려는 사소한 문제도 포함될 수 있다.

힌튼은 CBS와의 인터뷰에서 "상상할 수 없는 것은 아니다"라고 말했다.

 

큰 그림

그럼에도 불구하고 힌튼은 우리가 이미 가지고 있는 AI 기술(AGI 여부에 관계없이)이 어떻게 권력에 굶주린 정부와 기업에 의해 독점될 수 있는지가 실제 문제라고 주장한다.

힌튼은 인터뷰에서 "내년이나 2년 안에 이런 일이 일어나지 않을 것인데도 사람들이 지금 이 문제에 대해 걱정하는 것이 매우 합리적이라고 생각한다"고 말했다. "사람들은 이러한 문제에 대해 생각해야 한다."

 

운 좋게도 힌튼의 전망에 따르면 현재 공개적으로 사용 가능한 모델은 자비로울 정도로 어리석기 때문에 인류는 일이 완전히 통제 불능 상태가 되기 전에 약간의 숨쉴 공간이 있다.

"우리는 이제 ChatGPT가 이런 종류의 멍청한 전문가이고 진실에 대해 제대로 이해하지 못하는 전환점에 와 있다." 힌튼은 훈련 데이터에서 서로 다른 의견을 조정하려고 노력하고 있기 때문에 라고 CBS에 말했다. "일관된 세계관을 가지려고 노력하는 사람과 많이 다르다."

 

그러나 힌튼은 "우리는 다른 세계관을 이해할 수 있는 시스템으로 이동할 것"이라고 예측한다이는 AI를 휘두르는 사람이 필연적으로 자신의 세계관을 추진할 수 있음을 의미하기 때문에 으스스하다.

힌튼은 "대형 영리 회사가 무엇이 진실인지 결정하는 것을 원하지 않을 것"이라고 경고했다.

 
AI, AGI, 인공 일반 지능, 인류 제거 관련기사목록
PHOTO
1/6
광고
광고
광고
광고
광고
광고
많이 본 기사
AiMindbot뉴스 많이 본 기사