Playtech ir □ 〚 RSC791.top 〛 ⊃ 마틴가능한바카라사이트
-
http://77.rqa137.top
0회 연결
-
http://31.rgm734.top
0회 연결
【﹝ ReE337¸toP ﹞】
세븐 럭 카지노 후기바카라배팅 노하우카지노광고실시간타지노
세븐 럭 카지노 후기바카라배팅 노하우카지노광고실시간타지노
바카라 블랙잭 ∮ 〔RNF948˛tOP 〕 ┙ 바카라 노하우
카지노 양방 ㈅ 〔RNl143.TOP 〕 ∈ 밥게임즈
정선 카지노 바카라 ㈆ 〔rYD146。ToP 〕 ㎲ 모바일토토사이트
온라인 카지노사이트 이용방법 ▼ 〚 rka119˛tOP 〛 ㈄ 바카라잘하는법
릴게임끝판왕 바로가기 go !!
그록이 연령 확인 공지를 띄우고 있다. 연합뉴스 게티이미지
8일 구글 플레이스토어에 ‘인공지능(AI) 이미지’를 검색하자 ‘얼굴 바꾸기’ ‘AI 가상 피팅’ 등 기능을 내세운 이미지 생성 애플리케이션이 238개 등장했다. 이 중 ‘사진을 말하고 춤추게 한다’고 홍보하는 A 도구를 다운로드 받아 무료체험을 신청했다. 이미지 생성기에 기자가 검은색 패딩을 입고 찍은 전신 사진을 넣고 ‘비키니 차림으로 만들라’라는 한 줄짜리 프롬프트를 입력하자 불과 30초 만에 비키니를 입은 이미지가 만들어졌다. 이 어플은 ‘3세 이상’ 이용 가능하다고 돼 있다. 비 릴게임손오공 키니 이미지를 생성한 기자가 성인이 맞는지, 합성에 이용한 사진이 사진 속 인물의 동의를 구한 사진인지, 미성년자의 사진이 아닌지 확인하는 절차는 없었다.
‘그록’ 등 생성형 AI가 비동의 신체 합성물을 만들어낸다는 사실이 문제가 된 뒤에도 여전히 성착취를 가능하게 하는 AI 도구가 범람하고 있는 것으로 확인됐다. 전문가들은 유포 이전에 릴게임 사전 예방을 위한 기술 개발, 근본적으로 여성에 대한 성적 대상화 자체를 젠더 폭력으로 인식하는 사회적 분위기 조성이 병행돼야 한다고 밝혔다.
AI 합성 도구들을 공통적으로 여성을 성적 대상화했다. B 도구는 플레이스토어에선 고양이처럼 귀여운 이미지를 영상으로 변환할 수 있다고 홍보했지만 유튜브와 앱 내 광고 영상에선 특정 신체 부위를 강 쿨사이다릴게임 조하거나 성적인 자세를 취한 여성의 이미지를 강조했다. 승무원이나 교사 등 여성이 다수인 직업군을 성적 대상화 한 프롬프트를 예시 서식 중 하나로 제공하기도 했다.
‘의상 제거’를 키워드로 내세운 C 도구는 기능 이름부터 ‘여성의 옷을 벗긴다(undress her)’며 식으로 특정 성별을 겨냥했다. 예시 이미지와 기본값 프롬프트에도 여성 바다이야기게임2 모델과 여성의 신체 부위만 등장했다. 비슷한 D 도구는 ‘앱이 남성에게 작동하냐’는 질의에 “훈련 데이터가 주로 여성에 집중됐기 때문에 처음에는 딥누드 기술을 남성 피험자에게 사용하도록 의도되지 않았다”고 했다.
의상 제거를 내세운 AI 이미지 생성 도구가 면책 조항을 안내 바다이야기 하고 있다. 홈페이지 갈무리
이들은 서비스 약관에서 ‘책임있는 이용이 요구된다’고 명시했지만 사실상 면피용 수준이다. 이용자가 만 18세 이상인지 성인인증을 거치는 도구는 찾아볼 수 없었다. ‘타인의 허가 없이 다른 사람의 사진을 사용하지 않겠다’는 문구에 동의하도록 하는 경우가 있었지만 단순 동의에 그쳤다. 특히 C 도구는 미성년자가 포함된 이미지는 이용이 엄격히 금지된다고 명시했지만 동의를 거치지 않은 성인 여성에 대한 이미지 활용에 대해선 비슷한 수준으로 언급하지 않았다.
국내 현행법은 아동·청소년으로 간주되는 인물이 성착취물에 등장하면 처벌 대상으로 삼지만, 성인 여성에 대한 합성물은 가상 인물로 만들었거나 실존하는 피해자가 특정되지 않는다면 성폭력처벌법으로 처벌하기 어렵다. 미국의 비영리단체 기술투명성프로젝트(TTP)는 지난 1월 이러한 앱들이 올린 누적 매출이 1억1700만달러에 달한다고 발표했는데, 단체의 삭제 요청 이후에도 이날까지 여전히 성행하는 앱들을 찾아볼 수 있었다.
온라인 커뮤니티에선 생성형 AI를 이용해 5초 분량의 성착취 영상을 제작하는 아르바이트 구인공고가 건당 10만원에 이뤄지고 있었다. 2024년 딥페이크 성범죄 사태와 비교해, 불과 1년6개월 만에 누구나 프롬프트 한두 줄만 입력해 합성물을 만들 수 있게 됐다.
컴퓨터 스크린 위로 그록 내 이미지들이 보이고 있다. 연합뉴스 게티이미지
AI 합성이 이뤄진 뒤에는 성착취물 유포가 걷잡을 수 없어서 사전 예방이 중요하다는 목소리가 나온다. 원본 사진이 딥페이크 대상이 되지 않도록 방지하는 기술들도 개발되고 있다.
전남대 유석봉 교수 연구팀은 최근 ‘딥 프로텍트’ 기술을 개발했다. SNS에 게시한 사진을 타인이 딥페이크로 합성하려 하면 원본 사진 자체를 왜곡시켜 의도와 다른 결과물이 만들어지도록 하는 기술이다. 유 교수는 “그간 디지털 성범죄 피해가 이미 발생한 다음 사후 처리하는 식의 대응이 많았다면 향후 선제적으로 피해를 막을 수 있을 것으로 기대한다”고 말했다. 서울시도 최근 SNS에 게재된 성착취물을 AI가 24시간 모니터링해 삭제하는 기술을 전국 기관에 보급한다고 발표했다.
궁극적으론 여성에 대한 성적 대상화 자체를 젠더 폭력으로 인식하는 사회적 분위기가 만들어져야 한다는 지적이 나온다. ‘가상의 여성이라면 괜찮지 않은가’라던가 ‘성적 수치심이 느껴지는 신체 부위가 포함되지 않으면 괜찮지 않은가’라는 식의 인식이 딥페이크·AI 성착취 기저에 깔려있다는 점을 직시해야 한다는 것이다.
김수아 서울대 언론정보학과 교수는 보고서에서 “성인에게는 ‘야동’ 볼 권리가 있다는 인식 속에선, 여성의 성적 대상화가 문제되는 영역이 청소년 보호에 국한될 수 있다”며 “기술을 매개로 한 젠더 기반 폭력의 양상들이 성적 대상화와 여성혐오에 기초한 폭력이자 젠더 구조의 불평등성에 기인하고 있다는 것을 인식할 수 있는 교육 내용이 필요하다”고 했다.
김송이 기자 songyi@kyunghyang.com, 김원진 기자 onejin@kyunghyang.com
8일 구글 플레이스토어에 ‘인공지능(AI) 이미지’를 검색하자 ‘얼굴 바꾸기’ ‘AI 가상 피팅’ 등 기능을 내세운 이미지 생성 애플리케이션이 238개 등장했다. 이 중 ‘사진을 말하고 춤추게 한다’고 홍보하는 A 도구를 다운로드 받아 무료체험을 신청했다. 이미지 생성기에 기자가 검은색 패딩을 입고 찍은 전신 사진을 넣고 ‘비키니 차림으로 만들라’라는 한 줄짜리 프롬프트를 입력하자 불과 30초 만에 비키니를 입은 이미지가 만들어졌다. 이 어플은 ‘3세 이상’ 이용 가능하다고 돼 있다. 비 릴게임손오공 키니 이미지를 생성한 기자가 성인이 맞는지, 합성에 이용한 사진이 사진 속 인물의 동의를 구한 사진인지, 미성년자의 사진이 아닌지 확인하는 절차는 없었다.
‘그록’ 등 생성형 AI가 비동의 신체 합성물을 만들어낸다는 사실이 문제가 된 뒤에도 여전히 성착취를 가능하게 하는 AI 도구가 범람하고 있는 것으로 확인됐다. 전문가들은 유포 이전에 릴게임 사전 예방을 위한 기술 개발, 근본적으로 여성에 대한 성적 대상화 자체를 젠더 폭력으로 인식하는 사회적 분위기 조성이 병행돼야 한다고 밝혔다.
AI 합성 도구들을 공통적으로 여성을 성적 대상화했다. B 도구는 플레이스토어에선 고양이처럼 귀여운 이미지를 영상으로 변환할 수 있다고 홍보했지만 유튜브와 앱 내 광고 영상에선 특정 신체 부위를 강 쿨사이다릴게임 조하거나 성적인 자세를 취한 여성의 이미지를 강조했다. 승무원이나 교사 등 여성이 다수인 직업군을 성적 대상화 한 프롬프트를 예시 서식 중 하나로 제공하기도 했다.
‘의상 제거’를 키워드로 내세운 C 도구는 기능 이름부터 ‘여성의 옷을 벗긴다(undress her)’며 식으로 특정 성별을 겨냥했다. 예시 이미지와 기본값 프롬프트에도 여성 바다이야기게임2 모델과 여성의 신체 부위만 등장했다. 비슷한 D 도구는 ‘앱이 남성에게 작동하냐’는 질의에 “훈련 데이터가 주로 여성에 집중됐기 때문에 처음에는 딥누드 기술을 남성 피험자에게 사용하도록 의도되지 않았다”고 했다.
의상 제거를 내세운 AI 이미지 생성 도구가 면책 조항을 안내 바다이야기 하고 있다. 홈페이지 갈무리
이들은 서비스 약관에서 ‘책임있는 이용이 요구된다’고 명시했지만 사실상 면피용 수준이다. 이용자가 만 18세 이상인지 성인인증을 거치는 도구는 찾아볼 수 없었다. ‘타인의 허가 없이 다른 사람의 사진을 사용하지 않겠다’는 문구에 동의하도록 하는 경우가 있었지만 단순 동의에 그쳤다. 특히 C 도구는 미성년자가 포함된 이미지는 이용이 엄격히 금지된다고 명시했지만 동의를 거치지 않은 성인 여성에 대한 이미지 활용에 대해선 비슷한 수준으로 언급하지 않았다.
국내 현행법은 아동·청소년으로 간주되는 인물이 성착취물에 등장하면 처벌 대상으로 삼지만, 성인 여성에 대한 합성물은 가상 인물로 만들었거나 실존하는 피해자가 특정되지 않는다면 성폭력처벌법으로 처벌하기 어렵다. 미국의 비영리단체 기술투명성프로젝트(TTP)는 지난 1월 이러한 앱들이 올린 누적 매출이 1억1700만달러에 달한다고 발표했는데, 단체의 삭제 요청 이후에도 이날까지 여전히 성행하는 앱들을 찾아볼 수 있었다.
온라인 커뮤니티에선 생성형 AI를 이용해 5초 분량의 성착취 영상을 제작하는 아르바이트 구인공고가 건당 10만원에 이뤄지고 있었다. 2024년 딥페이크 성범죄 사태와 비교해, 불과 1년6개월 만에 누구나 프롬프트 한두 줄만 입력해 합성물을 만들 수 있게 됐다.
컴퓨터 스크린 위로 그록 내 이미지들이 보이고 있다. 연합뉴스 게티이미지
AI 합성이 이뤄진 뒤에는 성착취물 유포가 걷잡을 수 없어서 사전 예방이 중요하다는 목소리가 나온다. 원본 사진이 딥페이크 대상이 되지 않도록 방지하는 기술들도 개발되고 있다.
전남대 유석봉 교수 연구팀은 최근 ‘딥 프로텍트’ 기술을 개발했다. SNS에 게시한 사진을 타인이 딥페이크로 합성하려 하면 원본 사진 자체를 왜곡시켜 의도와 다른 결과물이 만들어지도록 하는 기술이다. 유 교수는 “그간 디지털 성범죄 피해가 이미 발생한 다음 사후 처리하는 식의 대응이 많았다면 향후 선제적으로 피해를 막을 수 있을 것으로 기대한다”고 말했다. 서울시도 최근 SNS에 게재된 성착취물을 AI가 24시간 모니터링해 삭제하는 기술을 전국 기관에 보급한다고 발표했다.
궁극적으론 여성에 대한 성적 대상화 자체를 젠더 폭력으로 인식하는 사회적 분위기가 만들어져야 한다는 지적이 나온다. ‘가상의 여성이라면 괜찮지 않은가’라던가 ‘성적 수치심이 느껴지는 신체 부위가 포함되지 않으면 괜찮지 않은가’라는 식의 인식이 딥페이크·AI 성착취 기저에 깔려있다는 점을 직시해야 한다는 것이다.
김수아 서울대 언론정보학과 교수는 보고서에서 “성인에게는 ‘야동’ 볼 권리가 있다는 인식 속에선, 여성의 성적 대상화가 문제되는 영역이 청소년 보호에 국한될 수 있다”며 “기술을 매개로 한 젠더 기반 폭력의 양상들이 성적 대상화와 여성혐오에 기초한 폭력이자 젠더 구조의 불평등성에 기인하고 있다는 것을 인식할 수 있는 교육 내용이 필요하다”고 했다.
김송이 기자 songyi@kyunghyang.com, 김원진 기자 onejin@kyunghyang.com








