광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[AI 리더들, 인류 멸종 위험 경고] OPENAI CEO는 AI가 인류를 "멸종"시킬 수 있다는 경고 편지에 서명했다. 대규모 인지 부조화가 발생하고 있다. AI리더들은 AI로 인한 인류 멸종의 임박한 위험이 전 세계적으로 우선 순위가 되어야 한다고 주장한다.

https://futurism.com/the-byte/openai-ceo-sam-altman-ai-extinction

운영자 | 기사입력 2023/06/01 [00:00]

[AI 리더들, 인류 멸종 위험 경고] OPENAI CEO는 AI가 인류를 "멸종"시킬 수 있다는 경고 편지에 서명했다. 대규모 인지 부조화가 발생하고 있다. AI리더들은 AI로 인한 인류 멸종의 임박한 위험이 전 세계적으로 우선 순위가 되어야 한다고 주장한다.

https://futurism.com/the-byte/openai-ceo-sam-altman-ai-extinction

운영자 | 입력 : 2023/06/01 [00:00]

급속한 기술 발전으로 특징지어지는 시대에 인공지능(AI)의 부상은 혁신의 최전선에 서 있다그러나 진보와 편리함을 주도하는 인간지능의 경이로움은 저명한 AI 지도자들이 말하는 것처럼 인류의 미래에 대한 실존적 우려를 불러일으키고 있다.

 

AI 안전 센터(Center for AI Safety)는 최근 OpenAI의 샘 알트만(Sam Altman), Google DeepMind의 데미스 허사비스(Demis Hassabis), Anthropic의 다리오 아모데이(Dario Amodei)와 같은 업계 개척자들의 지지를 받아 성명서를 발표했다감정은 분명하다. AI로 인한 인류 멸종의 임박한 위험이 전 세계적으로 우선 순위가 되어야 한다이 주장은 AI 커뮤니티에서 논쟁을 불러일으켰으며 일부는 두려움을 과장된 것으로 일축하고 다른 일부는 주의를 촉구했다.

 

끔찍한 예측재앙에 대한 AI의 잠재력

AI 안전 센터(Center for AI Safety) AI의 오용 또는 제어되지 않은 성장으로 인해 발생하는 여러 가지 잠재적 재해 시나리오를 설명한다그 중에는 AI의 무기화, AI가 생성한 잘못된 정보를 통한 사회 불안정화, AI 기술에 대한 점점 더 독점적인 통제로 인해 만연한 감시와 억압적인 검열이 가능하다.

 

-E 영화에서 묘사된 상황과 유사하게 인간이 AI에 과도하게 의존하게 될 수 있는 쇠약 시나리오도 언급된다이러한 의존성은 인류를 취약하게 만들 수 있으며 심각한 윤리적 및 실존적 질문을 제기한다.

 

이 분야에서 존경받는 인물이자 초 지능 AI에 대한 주의를 목소리 높여 옹호하는 제프리 힌튼(Geoffrey Hinton) 박사는 몬트리올 대학의 컴퓨터 과학 교수인 요슈아 벤지오(Yoshua Bengio)와 함께 센터의 경고를 지지한다.

 

반대 목소리: AI의 잠재적 피해에 대한 논쟁

반대로이러한 경고를 과장된 것으로 간주하는 AI 커뮤니티의 상당 부분이 존재한다. NYU 교수이자 Meta AI 연구원인 얀 르쿤(Yann LeCun)은 이러한 '최후의 종말 예언'에 분노를 표현한 것으로 유명하다비평가들은 그러한 재앙적인 예측이 시스템 편향 및 윤리적 고려와 같은 기존 AI 문제를 손상시킨다고 주장한다.

 

프린스턴 대학교의 컴퓨터 과학자인 아르빈드 나라야난(Arvind Narayanan)은 현재 AI 기능이 자주 그려지는 재난 시나리오와는 거리가 멀다고 제안했다그는 즉각적인 AI 관련 피해에 집중할 필요성을 강조했다.

 

마찬가지로 옥스퍼드 AI 윤리 연구소의 수석 연구원인 엘리자베스 레니에리스(Elizabeth Renieris) AI 발전으로 인한 편향차별적 의사 결정잘못된 정보 확산사회적 분열과 같은 단기적 위험에 대한 우려를 공유했다인간이 만든 콘텐츠로부터 배우는 AI의 성향은 부와 권력이 공공에서 소수의 민간 기업으로 이전되는 것에 대한 우려를 불러일으킨다.

균형 잡기현재의 문제와 미래의 위험 사이에서 탐색하기

AI 안전 센터(Center for AI Safety)의 댄 헨드릭스(Dan Hendrycks) 이사는 관점의 다양성을 인정하면서 현재 문제를 해결하는 것이 미래 위험을 완화하기 위한 로드맵을 제공할 수 있다고 강조했다탐구는 AI의 잠재력을 활용하는 것과 AI의 오용을 방지하기 위한 보호 장치를 설치하는 것 사이의 균형을 맞추는 것이다.

 

AI의 실존적 위협에 대한 논쟁은 새로운 것이 아니다. 2023 3월 일론 머스크를 비롯한 여러 전문가들이 차세대 AI 기술 개발 중단을 촉구하는 공개서한에 서명하면서 탄력을 받았다이후 대화는 발전해 왔으며 최근에는 잠재적인 위험을 핵전쟁의 위험과 비교했다.

 

앞으로 나아갈 길경계 및 규제 조치

AI가 사회에서 점점 더 중추적인 역할을 함에 따라 기술이 양날의 검이라는 사실을 기억하는 것이 필수적이다그것은 진보에 대한 엄청난 약속을 가지고 있지만 확인되지 않은 채로 두면 똑같이 실존적 위험을 내포한다. AI의 잠재적 위험에 대한 담론은 윤리적 지침을 정의하고 강력한 안전 조치를 만들고 AI 개발 및 사용에 대한 책임 있는 접근 방식을 보장하는 데 있어 글로벌 협력의 필요성을 강조한다.

 
인공지능, 멸종, 인류 멸망, 위험 경고 관련기사목록
PHOTO
1/6
광고
광고
광고
광고
광고
광고
많이 본 기사
AiMindbot뉴스 많이 본 기사