인공지능 대상 공격: Difference between revisions
From CS Wiki
(새 문서: 인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다. === 데이터 오염(Data Poisoning) === === 백도어 공격(Backdoor Attack) === === 모델 오염(Model Poisoning) === === 라벨 뒤집기(Label-flipping) === 분류:인공지능 분류:보안 분류:보안 공격) |
No edit summary |
||
Line 8: | Line 8: | ||
=== 라벨 뒤집기(Label-flipping) === | === 라벨 뒤집기(Label-flipping) === | ||
=== 모델 추출(Model Extraction; Model Stealing) === | |||
=== 모델 인버전(Model Inversion) === | |||
[[분류:인공지능]] | [[분류:인공지능]] | ||
[[분류:보안]] | [[분류:보안]] | ||
[[분류:보안 공격]] | [[분류:보안 공격]] |
Revision as of 19:58, 3 February 2024
인공지능 시스템이나 인공지능 모델을 대상으로 한 공격이다.