[글로벌 인공지능 안전 개발을 위한 약속] 새로운 글로벌 AI 안전 약속은 EU의 위험 기반 접근 방식을 반영한다. 정책입안자들과 AI 지도자들이 서울에서 합의에 도달함에 따라 블록은 모범을 보이는 것으로 보인다.https://thenextweb.com/news/global-ai-safety-commitment-echo-eu-risk-approach
글로벌 인공지능 안전 개발을 위한 약속
AI 정책입안자들에게는 바쁜 한 주였다. EU는 AI법에 관한 거래를 체결했다. 한편, 한국 서울에서는 16개 세계 선도 기업이 '프론티어 AI 안전 약속'에 서명했으며, 여러 국가가 기술과 관련된 위험을 완화하기 위해 협력하기로 약속했다.
지난해는 전 세계가 AI에 눈을 뜬 해였다고 해도 과언이 아니다. 2022년 말 ChatGPT가 출시되면서 이전의 비하인드 스토리 기술이 저녁 식사 테이블과 국회의사당 주변에서 대화를 나누는 계기가 되었다.
그리고 갑자기 기계가 지배하는 종말론적인 미래가 공상과학 개념에서 잠재적인 실제 시나리오로 바뀌었다. 적어도 충분한 안전 장치가 구현될 때까지 기술 개발을 늦추라는 종말 청원에 서명한 많은 연구자, 이익 단체, 심지어 AI 회사의 CEO까지 믿는 경우이다. 그러한 우려가 기술 회사들이 서로를 부추겨 새로운 AI 제품을 출시하는 속도를 줄이는 데 큰 역할을 한 것 같지는 않다.
다양한 성격의 AI 위험 완화 알고리즘에 의한 소멸을 넘어서 편견, 감시, 잘못된 정보의 대량 유포 등 AI 확산으로 인한 더 즉각적인 위협도 있다. 그 결과, 정치인들은 적어도 겉모습으로 판단해 이미 도망친 말을 어떻게 든 억제하기 위해 실제로 무엇을 할 수 있는지에 대해 마음을 포장하려고 노력해 왔다.
이번 주 한국에서 열린 AI 서울 정상회담에 이어, 오늘 다양한 국가들이 생화학 무기 제조를 포함해 심각한 AI 위험에 대한 한계점에 대해 협력하기로 합의했다. 유럽 서명국은 독일, 프랑스, 이탈리아, 스페인, 스위스, 영국, 터키, 네덜란드뿐 아니라 EU 단위이다.
이번 합의는 지난 화요일 세계에서 가장 영향력 있는 AI 기업 및 조직 16곳이 동의한 '프론티어 AI 안전 약속'에 따른 것이다. 프랑스의 스타트업 현상인 Mistral AI를 포함한 서명자는 AI 수명주기 전반에 걸쳐 위험을 자발적으로(집행 없음을 의미) 식별, 평가 및 관리하기로 약속한다. 여기에는 허용할 수 없는 위험에 대한 임계값 설정, 위험 완화 구현, 위험이 정의된 임계값을 초과하는 상황을 처리하기 위한 프로세스 확립이 포함된다.
AI 규제 주기가 빨라질 수 있을까? AI 서울 서밋은 영국 블레츨리 파크에서 열린 AI 안전 서밋 이후 6개월여 만에 열린다. 파리에서는 2025년 2월에 다음 모임인 AI 액션 서밋(AI Action Summit)을 개최할 예정이다. '안전'을 버리고 '행동'을 선호하는 것은 파리를 '인공지능의 도시'로 만들려는 마크롱 대통령의 열망과 관련이 있을 수 있다.
“현재 지정학적 순간에 AI의 복잡성은 규제 논의와 분리될 수 없으며 반드시 해결되어야 한다. AI를 안전하고 책임감 있게 출시하려면 글로벌 협업이 중요하다.”라고 CI&T의 EMEA 기술 부문 부사장인 마크 로드세스(Mark Rodseth)는 말했다. “AI의 급속한 발전을 고려하면 훨씬 더 짧은 규제 주기가 필요하다. 정부와 규제 당국이 속도를 높여야 하기 때문에 이는 어려울 것이다.”고 그는 덧붙였다.
이는 유럽연합의 합의 중심 규제 주기를 고려할 때 특히 EU에게는 까다로울 수 있는 사항이다. 그럼에도 불구하고, 이번 주 EU 장관들은 다음 달 발효될 획기적인 AI법에 서명했다.
핀란드 AI 거버넌스 스타트업 Saidot의 AI 정책 관리자인 마리아 코스키넨(Maria Koskinen)은 "EU AI 법과 Frontier AI 안전 약속의 큰 차이점은 후자가 조직이 위험에 대한 자체 임계 값을 결정할 수 있다는 것이다."고 말한다.
그러나 기업들이 "용납할 수 없는 것으로 간주되는" 위험을 임계 값으로 분류하는 방법과 이러한 위험을 완화할 계획을 공유하도록 요청 받은 점을 고려할 때 이는 전 세계 기업과 정부가 EU로부터 교훈을 얻고 있음을 의미하는 것으로 보인다. 코스키넨은 AI Act의 위험 기반 접근 방식을 추가했다. 그들이 탐구에 성공할지 여부는 오직 시간만이 말해 줄 것이다.
<저작권자 ⓒ 사단법인 유엔미래포럼 무단전재 및 재배포 금지>
인공지능 안전, 글로벌 AI 약속, 안전 개발 관련기사목록
|
많이 본 기사
AI메타홈서비스 많이 본 기사
1
최신기사
|