인공지능 대상 공격: Difference between revisions

From CS Wiki
(새 문서: 인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다. === 데이터 오염(Data Poisoning) === === 백도어 공격(Backdoor Attack) === === 모델 오염(Model Poisoning) === === 라벨 뒤집기(Label-flipping) === 분류:인공지능 분류:보안 분류:보안 공격)
 
No edit summary
Line 8: Line 8:


=== 라벨 뒤집기(Label-flipping) ===
=== 라벨 뒤집기(Label-flipping) ===
=== 모델 추출(Model Extraction; Model Stealing) ===
=== 모델 인버전(Model Inversion) ===
[[분류:인공지능]]
[[분류:인공지능]]
[[분류:보안]]
[[분류:보안]]
[[분류:보안 공격]]
[[분류:보안 공격]]

Revision as of 19:58, 3 February 2024

인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다.

데이터 오염(Data Poisoning)

백도어 공격(Backdoor Attack)

모델 오염(Model Poisoning)

라벨 뒤집기(Label-flipping)

모델 추출(Model Extraction; Model Stealing)

모델 인버전(Model Inversion)