광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[AI가 사회적 상호작용에 미치는 영향: AI의 불공정한 결정은 우리가 인간의 나쁜 행동에 무관심하게 만든다] AI로 인한 무관심으로 인해 사람들은 불의를 보면 지나칠 가능성이 높아진다. 사용자는 AI 시스템의 한계를 이해하고 불공정한 결과에 이의를 제기하는 방법을 알 수 있다. 이러한 효과에 대한 인식이 높아지면 특히 AI와 상호 작용한 후 사람들이 불공정함에 대해 경계하도록 장려할 수 있다.

https://thenextweb.com/news/unfair-decisions-by-ai-could-make-us-indifferent-to-bad-behaviour-by-humans

운영자 | 기사입력 2024/12/25 [00:00]

[AI가 사회적 상호작용에 미치는 영향: AI의 불공정한 결정은 우리가 인간의 나쁜 행동에 무관심하게 만든다] AI로 인한 무관심으로 인해 사람들은 불의를 보면 지나칠 가능성이 높아진다. 사용자는 AI 시스템의 한계를 이해하고 불공정한 결과에 이의를 제기하는 방법을 알 수 있다. 이러한 효과에 대한 인식이 높아지면 특히 AI와 상호 작용한 후 사람들이 불공정함에 대해 경계하도록 장려할 수 있다.

https://thenextweb.com/news/unfair-decisions-by-ai-could-make-us-indifferent-to-bad-behaviour-by-humans

운영자 | 입력 : 2024/12/25 [00:00]

 

AI가 사회적 상호작용에 미치는 영향: AI의 불공정한 결정은 우리가 인간의 나쁜 행동에 무관심하게 만든다.

 

인공지능(AI)은 우리의 일상 생활에 영향을 미치는 중요한 결정을 내린다이러한 결정은 효율성을 위해 기업과 기관에서 실행한다이는 누가 대학에 진학하고누가 취직하고누가 치료를 받고누가 정부 지원을 받을 자격이 있는지 결정하는 데 도움이 될 수 있다.

 

AI가 이러한 역할을 맡으면서 불공정한 결정의 위험이 커지고 있다또는 영향을 받는 사람들이 이러한 결정을 인식하는 데도 영향을 미친다예를 들어대학 입학이나 채용에서 이러한 자동화된 결정은 의도치 않게 특정 집단이나 특정 배경을 가진 사람들에게 유리할 수 있으며동등한 자격을 갖추었지만 대표성이 낮은 지원자는 간과될 수 있다.

 

또는 정부가 혜택 시스템에서 사용할 경우 AI는 사회적 불평등을 악화시키는 방식으로 자원을 할당하여 일부 사람들에게 마땅히 받아야 할 것보다 적게 주고 불공정한 대우를 받는다는 느낌을 줄 수 있다.

 

국제 연구팀과 함께 우리는 불공정한 자원 분배(AI 또는 인간이 처리)가 사람들의 불공정에 맞서 행동하려는 의지에 어떤 영향을 미치는지 조사했다결과는 저널 Cognition에 게재되었다.

AI가 일상생활에 점점 더 깊이 자리 잡으면서 정부는 편향적이거나 불투명한 AI 시스템으로부터 시민을 보호하기 위해 나서고 있다이러한 노력의 예로는 백악관의 AI 권리장전과 유럽 의회의 AI법이 있다이는 사람들이 AI의 결정에 대해 잘못된 감정을 느낄 수 있다는 공통된 우려를 반영한다.

그렇다면 AI 시스템으로 인한 불공정함은 사람들이 그 후 서로를 대하는 방식에 어떤 영향을 미칠까?

 

AI로 인한 무관심

Cognition에 게재된 우리의 논문은 사람들이 AI로 인해 불공정한 대우를 받은 후 불공정함에 맞서 행동하려는 의지를 살펴보았다우리가 조사한 행동은 이러한 개인이 이후에 하는 관련 없는 상호 작용에 적용되었다이러한 상황에서 행동하려는 의지즉 종종 "친사회적 처벌"은 사회적 규범을 고수하는 데 중요한 것으로 여겨진다.

 

예를 들어고발자는 위험에도 불구하고 비윤리적인 관행을 보고할 수 있고소비자는 해로운 방식으로 행동한다고 ​​생각되는 회사를 보이콧할 수 있다이러한 친사회적 처벌 행위에 관여하는 사람들은 종종 다른 사람에게 영향을 미치는 불의를 해결하기 위해 그렇게 하며이는 커뮤니티 기준을 강화하는 데 도움이 된다.

우리는 이 질문을 했다사람 대신 AI로 인해 불공평을 경험하는 것이 나중에 인간의 잘못에 맞서려는 사람들의 의지에 영향을 미칠 수 있을까예를 들어, AI가 불공평하게 근무 시간을 배정하거나 혜택을 거부하면 사람들이 동료의 비윤리적인 행동을 나중에 보고할 가능성이 낮아질까?

일련의 실험을 통해 AI에게 불공평하게 대우받은 사람들은 인간에게 불공평하게 대우받은 참가자보다 나중에 인간의 잘못을 저지른 사람을 처벌할 가능성이 낮다는 것을 발견했다그들은 다른 사람의 나쁜 행동에 대한 일종의 무감각함을 보였다우리는 이 효과를 AI 유도 무관심이라고 불렀는데, AI의 불공평한 대우가 사람들의 다른 사람에 대한 책임감을 약화시킬 수 있다는 생각을 포착하기 위해서였다이로 인해 사람들은 지역 사회의 불의를 해결할 가능성이 낮아진다.

 

무행동의 이유

이는 사람들이 불공평한 대우에 대해 AI를 덜 비난하고따라서 불의에 맞서 행동하려는 동기가 덜하기 때문일 수 있다이 효과는 참가자가 다른 사람의 불공평한 행동만 접하거나 공정하고 불공평한 행동을 모두 접했을 때에도 일관되게 나타났다우리가 발견한 관계가 AI에 대한 친숙도에 영향을 받았는지 알아보기 위해 2022 ChatGPT가 출시된 이후에 동일한 실험을 다시 수행했다이후 시리즈의 테스트에서도 이전 시리즈와 동일한 결과를 얻었다.

이러한 결과는 사람들의 불공정함에 대한 반응이 공정하게 대우받았는지 여부뿐만 아니라 AI 또는 인간 중 누가 불공정하게 대우했는지에 따라 달라진다는 것을 시사한다.

 

간단히 말해, AI 시스템의 불공정한 대우는 사람들이 서로에게 반응하는 방식에 영향을 미쳐 서로의 불공정한 행동에 덜 주의를 기울이게 할 수 있다이는 개인이 한 번의 불공정한 결정을 경험하는 것을 넘어 인간 사회에서 AI가 미칠 수 있는 잠재적 파장 효과를 강조한다.

AI 시스템이 불공정하게 행동하면 그 결과가 미래의 상호 작용으로 확대되어 AI와 관련 없는 상황에서도 사람들이 서로를 대하는 방식에 영향을 미친다. AI 시스템 개발자는 이러한 중요한 파급 효과를 방지하기 위해 AI 교육 데이터의 편향을 최소화하는 데 집중해야 한다고 제안한다.

 

정책 입안자는 또한 투명성에 대한 기준을 수립하여 회사가 AI가 불공정한 결정을 내릴 수 있는 곳을 공개하도록 요구해야 한다이를 통해 사용자는 AI 시스템의 한계를 이해하고 불공정한 결과에 이의를 제기하는 방법을 알 수 있다이러한 효과에 대한 인식이 높아지면 특히 AI와 상호 작용한 후 사람들이 불공정함에 대해 경계하도록 장려할 수도 있다.

분노와 불공정한 대우에 대한 비난의 감정은 불의를 발견하고 잘못을 저지른 사람을 책임지우기 위해 필수적이다. AI의 의도치 않은 사회적 효과를 해결함으로써 리더는 AI가 정의에 기반한 사회에 필요한 윤리적사회적 기준을 훼손하기보다는 지원하도록 할 수 있다.

 

 

 

 

 

 
인공지능, AI, 사회적 상호작용, AI 불공정, 무관심 관련기사목록
광고
광고
광고
광고
광고
광고
광고
AI메타홈서비스 많이 본 기사
최신기사
광고
광고