[AI는 과학을 혁신할 것으로 보이지만, 우리는 그 결과를 이해할 수 있을까?] AI가 과학을 위해 가능하게 하거나 차단하는 다양한 미래를 적극적으로 탐구하고, 그 잠재력을 책임감 있게 활용하는 데 필요한 표준과 지침을 수립해야 한다.https://theconversation.com/ai-is-set-to-transform-science-but-will-we-understand-the-results-241760
AI는 과학을 혁신할 것으로 보이지만, 우리는 그 결과를 이해할 수 있을까?
인공지능(AI)은 기초 과학의 중심이 되었다. 2024년 노벨 화학상과 물리학상 수상자 5명은 공통된 주제를 공유했다. 바로 AI이다. 실제로 많은 과학자(노벨 위원회 포함)가 AI를 과학을 혁신하는 힘으로 찬양하고 있다.
수상자 중 한 명이 말했듯이, AI는 과학적 발견을 가속화할 수 있는 잠재력이 있어 "인류 역사상 가장 혁신적인 기술 중 하나"이다. 하지만 이러한 혁신은 과학에 실제로 무엇을 의미할까?
AI는 과학자들이 더 적은 비용으로 더 많은 것을 더 빠르게 수행할 수 있도록 도울 것을 약속한다. 하지만 새로운 우려 사항도 많이 제기한다. 과학자들이 AI 도입을 서두르면 과학이 대중의 이해와 신뢰를 벗어나 사회의 요구를 충족하지 못하는 것으로 변질될 위험이 있다.
이해의 환상 전문가들은 이미 AI를 사용하는 연구자들을 사로잡을 수 있는 최소한 세 가지 환상을 확인했다. 첫 번째는 "설명적 깊이의 환상"이다. AI 모델이 단백질 구조 예측으로 노벨 화학상을 수상한 AlphaFold와 같이 현상을 예측하는 데 뛰어나다고 해서 정확하게 설명할 수 있다는 의미는 아니다. 신경과학 연구에서는 최적화된 예측을 위해 설계된 AI 모델이 근본적인 신경생물학적 메커니즘에 대한 오해의 소지가 있는 결론을 내릴 수 있다는 사실이 이미 밝혀졌다.
두 번째는 "탐색적 폭의 환상"이다. 과학자들은 탐색적 연구에서 모든 검증 가능한 가설을 조사하고 있다고 생각할 수 있지만, 실제로는 AI를 사용하여 테스트할 수 있는 제한된 가설 집합만 살펴보고 있다.
마지막으로 "객관성의 환상"이다. 과학자들은 AI 모델이 편견이 없거나 모든 가능한 인간의 편견을 설명할 수 있다고 믿을 수 있다. 그러나 실제로 모든 AI 모델은 필연적으로 훈련 데이터에 존재하는 편향과 개발자의 의도를 반영한다.
저렴하고 빠른 과학 과학에서 AI가 점점 더 매력적으로 느껴지는 주된 이유 중 하나는 더 많은 결과를 더 빠르게, 훨씬 낮은 비용으로 만들어낼 수 있는 잠재력 때문이다. 이러한 추진의 극단적인 예는 최근 Sakana AI Labs에서 개발한 "AI Scientist" 기계이다. 이 회사의 비전은 각 아이디어를 단 15달러에 완전한 연구 논문으로 만들 수 있는 "자동화된 과학적 발견을 위한 완전한 AI 기반 시스템"을 개발하는 것이다. 하지만 비평가들은 이 시스템이 "끝없는 과학적 엉터리"를 만들어냈다고 말했다.
우리는 정말 몇 번의 클릭만으로 연구 논문을 만들어낼 수 있는 미래를 원할까? 그저 과학 생산을 "가속화"하기 위해서일까? 이렇게 되면 의미와 가치가 없는 논문으로 과학 생태계가 넘쳐나고 이미 과부하 상태인 동료 평가 시스템에 더 큰 부담을 줄 위험이 있다. 우리는 한때 우리가 알고 있던 과학이 AI가 생성한 콘텐츠의 소음에 묻혀 있는 세상에 처하게 될지도 모른다.
맥락 부족 과학 분야에서 AI의 부상은 과학과 과학자에 대한 대중의 신뢰가 여전히 상당히 높은 시기에 이루어졌지만, 우리는 이를 당연하게 여길 수 없다. 신뢰는 복잡하고 취약하다. 코로나 팬데믹 동안 알게 되었듯이, 과학적 증거와 계산 모델이 종종 논란이 되거나 불완전하거나 다양한 해석에 열려 있기 때문에 "과학을 신뢰하라"는 요구는 부족할 수 있다.
그러나 세계는 기후 변화, 생물 다양성 손실, 사회적 불평등과 같이 전문가의 판단으로 만들어진 공공 정책이 필요한 수많은 문제에 직면해 있다. 이러한 판단은 또한 특정 상황에 민감해야 하며, 지역 문화와 가치의 관점에서 해석해야 하는 다양한 학문과 실제 경험에서 의견을 수집해야 한다.
작년에 발표된 국제 과학 위원회 보고서에서 주장했듯이, 과학은 대중의 신뢰를 회복하기 위해 뉘앙스와 맥락을 인식해야 한다. AI가 과학의 미래를 형성하게 하면 이 분야에서 힘들게 이룬 진전이 훼손될 수 있다. AI가 과학적 탐구에서 주도권을 잡도록 허용하면, AI에 가장 적합한 질문, 방법, 관점 및 전문가를 우선시하는 지식의 단일 문화를 만들어낼 위험이 있다. 이는 책임 있는 AI에 필수적인 학제간 접근 방식과 사회적, 환경적 과제를 해결하는 데 필요한 섬세한 대중적 추론 및 대화에서 우리를 멀어지게 할 수 있다.
과학을 위한 새로운 사회적 계약 21세기가 시작되면서 어떤 사람들은 과학자들이 공적 자금을 받는 대가로 우리 시대의 가장 시급한 문제에 재능을 집중하는 새로운 사회적 계약을 맺었다고 주장했다. 목표는 사회가 생태적으로 건전하고 경제적으로 실행 가능하며 사회적으로 공정한 보다 지속 가능한 생물권으로 나아가도록 돕는 것이다.
AI의 부상은 과학자들에게 책임을 다할 수 있는 기회일 뿐만 아니라 계약 자체를 되살릴 수 있는 기회를 제공한다. 그러나 과학 커뮤니티는 먼저 AI 사용에 대한 몇 가지 중요한 질문을 해결해야 한다.
예를 들어, 과학에서 AI를 사용하는 것이 공적 자금으로 지원되는 작업의 무결성을 손상시킬 수 있는 일종의 "아웃소싱"일까? 이를 어떻게 처리해야 할까? AI의 증가하는 환경적 발자국은 어떨까? 그리고 연구자들은 AI를 연구 파이프라인에 통합하는 동안 어떻게 사회의 기대에 부응할 수 있을까? 이 사회적 계약을 먼저 수립하지 않고 AI로 과학을 변화시킨다는 생각은 말 앞에 수레를 놓는 위험이 있다.
다양한 목소리와 학문 분야의 의견 없이 AI가 연구 우선순위를 형성하도록 내버려두면 사회가 실제로 필요로 하는 것과 불일치하게 되고 자원이 제대로 할당되지 않을 수 있다.
과학은 사회 전체에 이롭게 작용해야 한다. 과학자들은 실무 커뮤니티와 연구 이해 관계자와 함께 AI의 미래에 대한 실제 대화에 참여해야 한다. 이러한 토론은 공유된 목표와 가치를 반영하여 이 새로운 사회 계약의 차원을 다루어야 한다.
<저작권자 ⓒ 사단법인 유엔미래포럼 무단전재 및 재배포 금지>
인공지능, 노벨상, 과학, 과학 혁신 관련기사목록
|
많이 본 기사
AI메타홈서비스 많이 본 기사
2
최신기사
|