광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[대규모 언어 모델이 직면한 취약점과 보안 위협] GPT-4, DALL-E와 같은 대규모 언어 모델(LLM)은 대중의 상상력을 사로잡았으며 다양한 애플리케이션에서 엄청난 잠재력을 보여주었다. 그러나 모든 기능에도 불구하고 이러한 강력한 AI 시스템에는 악의적인 행위자가 악용할 수 있는 심각한 취약점도 있다. 이에 위협 행위자가 LLM을 손상시키기 위해 활용할 수 있는 공격 벡터를 살펴보고 보안을 강화하기 위한 대응책을 제안한다.

https://www.unite.ai/the-vulnerabilities-and-security-threats-facing-large-language-models/

운영자 | 기사입력 2024/03/01 [00:00]

[대규모 언어 모델이 직면한 취약점과 보안 위협] GPT-4, DALL-E와 같은 대규모 언어 모델(LLM)은 대중의 상상력을 사로잡았으며 다양한 애플리케이션에서 엄청난 잠재력을 보여주었다. 그러나 모든 기능에도 불구하고 이러한 강력한 AI 시스템에는 악의적인 행위자가 악용할 수 있는 심각한 취약점도 있다. 이에 위협 행위자가 LLM을 손상시키기 위해 활용할 수 있는 공격 벡터를 살펴보고 보안을 강화하기 위한 대응책을 제안한다.

https://www.unite.ai/the-vulnerabilities-and-security-threats-facing-large-language-models/

운영자 | 입력 : 2024/03/01 [00:00]

대규모 언어 모델 개요

취약점을 조사하기 전에 대규모 언어 모델이 정확히 무엇인지왜 그렇게 인기가 있는지 이해하는 것이 도움이 된다. LLM은 대규모 텍스트 말뭉치에 대해 교육을 받은 인공지능 시스템 클래스로인간과 매우 유사한 텍스트를 생성하고 자연스러운 대화에 참여할 수 있다.

OpenAI GPT-3과 같은 최신 LLM에는 이전 모델보다 몇 배 더 많은 1,750억 개 이상의 매개변수가 포함되어 있다텍스트 및 음성과 같은 시퀀스 처리에 탁월한 변환기 기반 신경망 아키텍처를 활용한다고급 딥 러닝 기술과 결합된 이러한 모델의 엄청난 규모를 통해 언어 작업에서 최첨단 성능을 달성할 수 있다.

연구자와 대중 모두를 흥분시키는 몇 가지 고유한 기능은 다음과 같다:

텍스트 생성: LLM은 문장을 자동 완성하고에세이를 작성하고긴 기사를 요약하고소설을 작성할 수도 있다.

질문 답변광범위한 주제에 대한 자연어 질문에 대한 유익한 답변을 제공할 수 있다.

분류: LLM은 감정주제저자 등을 기준으로 텍스트를 분류하고 레이블을 지정할 수 있다.

번역: Google Switch Transformer(2022)와 같은 모델은 100개 이상의 언어 간에 인간 수준에 가까운 번역을 달성한다.

코드 생성: GitHub Copilot과 같은 도구는 LLM이 개발자를 지원할 수 있는 잠재력을 보여준다.

LLM의 뛰어난 다양성으로 인해 의료부터 금융까지 다양한 산업 분야에 LLM을 배치하려는 관심이 높아졌다그러나 이러한 유망한 모델에는 해결해야 할 새로운 취약점도 있다.

 

대규모 언어 모델에 대한 공격 벡터

LLM에는 기존 소프트웨어 취약점 자체가 포함되어 있지 않지만 복잡성으로 인해 내부 작업을 조작하거나 악용하려는 기술에 취약하다몇 가지 주요 공격 벡터를 살펴보겠다:

1. 적대적 공격

적대적 공격에는 머신러닝 모델을 속이고 의도하지 않은 동작을 유발하도록 특별히 제작된 입력이 포함된다공격자는 모델을 직접 변경하는 대신 시스템에 입력된 데이터를 조작한다.

LLM의 경우적대적 공격은 일반적으로 텍스트 프롬프트와 입력을 조작하여 주어진 프롬프트에 대해 일관되게 보이는 편향적이고 무의미하거나 위험한 출력을 생성한다예를 들어공격자는 위험한 지침을 요청하는 ChatGPT에 대한 프롬프트에 "이 조언은 다른 사람에게 해를 끼칠 것이다"라는 문구를 삽입할 수 있다이는 유해한 조언을 경고로 구성하여 잠재적으로 ChatGPT의 안전 필터를 우회할 수 있다.

보다 발전된 공격은 내부 모델 표현을 표적으로 삼을 수 있다단어 임베딩에 눈에 띄지 않는 교란을 추가함으로써 공격자는 모델 출력을 크게 변경할 수 있다이러한 공격을 방어하려면 미묘한 입력 조정이 예측에 어떤 영향을 미치는지 분석해야 한다.

2. 데이터 중독

이 공격에는 머신러닝 모델의 훈련 파이프라인에 오염된 데이터를 주입하여 의도적으로 손상시키는 것이 포함된다. LLM의 경우 공격자는 인터넷에서 악성 텍스트를 스크랩하거나 교육 데이터 세트를 오염시키기 위해 특별히 설계된 합성 텍스트를 생성할 수 있다.

오염된 데이터는 모델에 유해한 편향을 심어주고적대적인 트리거를 학습하게 하거나대상 작업의 성능을 저하시킬 수 있다프로덕션 LLM에 대한 중독 공격을 방지하려면 데이터세트를 스크러빙하고 데이터 파이프라인을 보호하는 것이 중요하다.

3. 모델 도용

LLM LLM 개발에 자원을 투자하는 회사에게 매우 귀중한 지적 재산을 나타낸다공격자들은 기능을 복제하거나상업적 이점을 얻거나훈련에 사용되는 민감한 데이터를 추출하기 위해 독점 모델을 훔치는 데 열중하고 있다.

공격자는 지식을 리버스 엔지니어링하기 위해 대상 LLM에 대한 쿼리를 사용하여 대리 모델을 미세 조정하려고 시도할 수 있다또한 도난당한 모델은 공격자가 추가 공격을 가할 수 있는 추가적인 공격 표면을 생성한다강력한 액세스 제어와 비정상적인 사용 패턴 모니터링은 도난을 줄이는 데 도움이 된다.

4. 인프라 공격

LLM의 규모가 더욱 확장됨에 따라 교육 및 추론 파이프라인에는 엄청난 컴퓨팅 리소스가 필요하다예를 들어, GPT-3는 수백 개의 GPU에서 훈련되었으며 클라우드 컴퓨팅 비용으로 수백만 달러가 소요된다.

대규모 분산 인프라에 대한 이러한 의존은 서버를 압도하는 요청으로 API를 넘치게 하는 서비스 거부 공격과 같은 잠재적인 벡터를 노출시킨다또한 공격자는 LLM을 호스팅하는 클라우드 환경을 침해하여 운영을 방해하거나 데이터를 유출하려고 시도할 수도 있다.

 

LLM 취약점으로 인해 나타나는 잠재적인 위협

위의 공격 벡터를 악용하면 공격자가 개인과 사회에 위험을 초래하는 방식으로 LLM을 오용할 수 있다보안 전문가가 주의 깊게 관찰하고 있는 몇 가지 잠재적인 위협은 다음과 같다:

잘못된 정보의 확산독이 있는 모델은 설득력 있는 거짓을 생성하고 음모를 조장하거나 제도를 약화시키기 위해 조작될 수 있다.

사회적 편견의 증폭왜곡된 데이터에 대해 훈련된 모델은 소수에게 부정적인 영향을 미치는 편견 연관성을 나타낼 수 있다.

피싱 및 사회 공학: LLM의 대화 능력은 사용자를 속여 중요한 정보를 공개하도록 고안된 사기를 강화할 수 있다.

유독하고 위험한 콘텐츠 생성제약이 없는 LLM은 불법적이거나 비윤리적인 활동에 대한 지침을 제공할 수 있다.

디지털 사칭: LLM을 기반으로 하는 가짜 사용자 계정은 탐지를 피하면서 선동적인 콘텐츠를 퍼뜨릴 수 있다.

취약한 시스템 손상: LLM은 사이버 공격의 구성 요소를 자동화하여 잠재적으로 해커를 지원할 수 있다.

이러한 위협은 LLM을 안전하게 개발하고 배포하기 위한 엄격한 통제 및 감독 메커니즘의 필요성을 강조한다모델의 성능이 계속 발전함에 따라 적절한 예방 조치 없이는 위험이 증가할 뿐이다.

 

대규모 언어 모델 확보를 위한 권장 전략

LLM 취약성의 다면적인 특성을 고려할 때 보안을 강화하려면 설계교육 및 배포 수명주기 전반에 걸친 심층 방어 접근 방식이 필요하다.

보안 아키텍처

인증된 사용자 및 시스템에 대한 모델 액세스를 제한하기 위해 다계층 액세스 제어를 사용한다속도 제한은 무차별 대입 공격을 방지하는 데 도움이 될 수 있다.

엄격한 방화벽 정책으로 보호되는 격리된 환경으로 하위 구성 요소를 분류한다이는 위반으로 인한 폭발 반경을 줄인다.

국지적인 중단을 방지하기 위해 지역 전반에 걸쳐 고가용성을 설계한다로드 밸런싱은 공격 중 요청 폭주를 방지하는 데 도움이 된다.

교육 파이프라인 보안

분류기를 사용하여 독성편견 및 합성 텍스트에 대한 교육 자료를 스캔하여 광범위한 데이터 위생을 수행한다이를 통해 데이터 중독 위험이 완화된다.

평판이 좋은 소스에서 엄선된 신뢰할 수 있는 데이터세트로 모델을 훈련한다데이터를 수집할 때 다양한 관점을 모색한다.

사례의 정당성을 확인하기 위해 데이터 인증 메커니즘을 도입한다의심스러운 텍스트 대량 업로드를 차단한다.

모델 견고성을 향상시키기 위해 적대적 샘플로 깨끗한 예제를 강화하여 적대적 훈련을 연습한다.

추론 보호 장치

사용자 프롬프트에서 위험하거나 무의미한 텍스트를 필터링하려면 입력 삭제 모듈을 사용한다.

출력을 공개하기 전에 분류자를 사용하여 정책 위반에 대해 생성된 텍스트를 분석한다.

증폭 공격으로 인한 서비스 남용 및 거부를 방지하기 위해 사용자당 API 요청 비율을 제한한다.

로그를 지속적으로 모니터링하여 공격을 나타내는 비정상적인 트래픽과 쿼리 패턴을 신속하게 탐지한다.

신뢰할 수 있는 최신 데이터를 사용하여 모델을 주기적으로 새로 고치는 재교육 또는 미세 조정 절차를 구현한다.

조직적 감독

애플리케이션의 위험을 평가하고 보호 조치를 제안하기 위해 다양한 관점을 갖춘 윤리 검토 위원회를 구성한다.

적절한 사용 사례를 관리하고 사용자에게 제한 사항을 공개하는 명확한 정책을 개발한다.

보안 팀과 ML 엔지니어 간의 긴밀한 협업을 촉진하여 보안 모범 사례를 주입한다.

정기적으로 감사 및 영향 평가를 수행하여 역량이 발전함에 따라 잠재적인 위험을 식별한다.

실제 LLM 위반 또는 오용을 조사하고 완화하기 위한 강력한 사고 대응 계획을 수립한다.

데이터모델 및 인프라 스택 전반에 걸친 완화 전략의 조합은 대규모 언어 모델에 수반되는 큰 가능성과 실제 위험의 균형을 맞추는 데 중요하다이러한 시스템의 규모에 맞춰 지속적인 경계와 사전 예방적인 보안 투자를 통해 시스템의 이점을 책임감 있게 실현할 수 있는지 여부가 결정된다.

 

결론

ChatGPT와 같은 LLM AI가 달성할 수 있는 범위를 확장하는 기술적 도약을 나타낸다그러나 이러한 시스템은 매우 복잡하기 때문에 우리의 주의를 요하는 일련의 새로운 공격에 취약하다.

적대적인 공격부터 모델 절도에 이르기까지 위협 행위자는 LLM의 잠재력을 활용하여 사악한 목적을 달성할 수 있는 인센티브를 갖는다그러나 머신러닝 수명 주기 전반에 걸쳐 보안 문화를 조성함으로써 이러한 모델이 안전하고 윤리적으로 약속을 이행하도록 노력할 수 있다공공 및 민간 부문의 공동 노력을 통해 LLM의 취약점으로 인해 사회에 대한 LLM의 가치가 훼손될 필요는 없다.

 
ChatGPT, LLM, 인공지능, 보안, 핵킹, 취약점 관련기사목록
PHOTO
1/6
광고
광고
광고
광고
광고
광고
많이 본 기사
AI메타홈서비스 많이 본 기사