사회 ISSUE ; AI인공지능 윤리기준 AI이루다 성희롱 및 혐오발언 _ 기사정리 검색 210110^^

미국주식리기준

 

 geralt, 출처 Pixabay

성희롱 시달린 'AI 이루다', 요번엔 동성애 혐오 학습 우려, 이효석기자, IT.과학뉴스 (송고시간 2021-01-10 06:00)www.yna.co.kr인공지능(AI) 챗봇 '이루다'가 성적 접근에 시달렸다는 소식에 이어 동성애 혐오를 학습한 것으로 보인다는 우려가 제기됐다. 이재웅 전 쏘카 대표는 9일 페이스북에 글을 올려 "AI 챗봇 이루다를 악용하는 이용자보다, 사회적 합의에 못 미치는 수준의 서비스를 제공한 사업자가 문제"라고 비판했다.​이 전 대표는 다시 댓글로 "성적 악용 문제도 20세 여성 캐릭터로 정하는 순간 일어날 수밖에 없는 문제였다"며 "범용 서비스를 한다면서 나이와 젠더를 정한 것부터 바람직하지 않았다"고 의견을 냈다.

COUPANGcoupa.ng다른 개발자는 "개발업체 측은 이루다가 편향되지 않았다고 주장그렇지만, 동성애 혐오나 성차별 발언이 실제로 확인된다"며 "이를 방치했었으면 결국 개발업체 측이 동성애 및 젠더 문제를 '불편한 것' 정도로 취급하는 셈"이라고 지적했다.​

장애인 주제 나오자 "어쩔수없이 죽어야지" 동성애에도 "질 떨어져 보여, 소름끼쳐"www.mk.co.kr스무살 여성 대학생 캐릭터로 개발된 인공지능(AI) 챗봇 `이루다`가 동성애·장애인·여성 혐오 발언을 무분별하게 학습하고 있단 우려가 커지고 있다. 일부에선 `이루다 성노예 만드는 법`과 같은 글을 공유해 사이버 성폭력 논란도 일고 있다.​이루다를 개발한 스타트업 스캐터랩의 김종윤 대표는 8일 자사 블로그에 글을 올려 "(성희롱에) 일차적으로는 키워드 설정 등으로 대처했으나, 대부분 부적당한 대화를 막는 것은 어려웠다"며 "정도가 심한 이용자에 강력하게 대응하겠다"고 밝혔다.​

이에 이 전 대표는 "기본적으로 차별과 혐오는 걸러냈어야 한다"며 "편향된 학습 데이터면 보완하든가 보정을 해서라도 혐오와 차별의 메시지는 제공하지 못해야 한다"고 지적했다. 혹은 그는 다른 댓글에서 "(이루다가 학습했다는) 20대 연인의 비공개 대화에 (차별·편향이 있는) 대화가 많았을 수 있지만, 공적으로 하는news.joins.com이루다는 스타트업 스캐터랩이 지난달 23일 페이스북 메신저 기반으로 출시한 AI 챗봇이다. 딥러닝 기반이라 이용자들과 대화를 나누면서 학습 데이터를 쌓고 있으며 실제 연인이 나눈 대화 데이터 약 100억 건을 딥러닝 방식으로 이루다에게 학습시켰다고 개발사는 전했다.​

스타트업 스캐터랩이 지난달 23일 출시한 스무살 여대생 인공지능 챗봇 ‘이루다’가 성희롱 대상이 된 데 이어 성소수자와 장애인에 대한 차별·혐오 표현을 학습해 비판의 목소리가 커지고 있다. 혹은 이루다가 학습한 채팅 내용은 같은 개발사가 운영하는 혹은다른 앱인 ‘연애의 과학’을 통해 수집한 실제 연인들 간의 대화로 밝혀져 논란이 가중...www.seoul.co.kr​장병탁 서울대 컴퓨터공학과 교수는 10일 서울신문과의 통화에서 “사람이 인공지능에게 부적당한 질문을 하고 학습시키기 떼문에 생기는 일”이라면서 “이 문제는 인공지능만의 탓을 하거나, 인공지능을 개발한 스타트업만을 탓해 해결할 일이 아니라 결국 사람이 바뀌어야 할 문제”라고 지적했다.

COUPANGcoupa.ng장 교수는 “쉽게 말해 정해진 답만 말하던 과거의 인공지능과 달리 지금의 인공지능은 사회에 나가 사람과 교류한다면서 배우도록 설계돼 있다. 그러면 나쁜 점도 배울 수밖에 없다”고 지적한다면서 “근본적으로 사람이 사람에게도 하지 못할 부적합한 질문을 인공지능에게 하기 떼문에 생기는 문제다. 인공지능이 우리 생활 속에 들어와 함께 살아가기 위해 사람들도 인공지능에 대한 교육을 받아야 한다”고 대안을 제시했다.​

플래텀은 'Startup's Story Platform’ 을 모토로 하는 스타트업 전문 미디어에요..platum.kr​Q. 루다에 대한 성희롱을 예상했나?​A. 예상했어요.. 인간은 AI에게 욕설과 성희롱을 해요. 이건 이용자가 여자든 남자든, AI가 여자든 남자든 크게 차이가 없어요.. 루다는 저희의 첫 AI 프로덕트가 아니에요. 저희는 고양이 챗봇 ‘드림이’부터 시작해서, 구글 어시스턴트에서 서비스한 ‘그 남자 허세중’, ‘파이팅 루나‘(참고로 루다의 동생으로 설정되어 있어요.)를 끈임없이 만들고 서비스해왔어요.. 그 동안의 서비스 경험에 비추어봤을 때, 인간이 AI에게 사회적으로 용인되지 않는 인터랙션을 한다는 건 너무 자명한 사실이었고, 충분히 예상할 수 있는 일이었어요.. 다시 한 번 강조그렇지만, 이건 성별과 무관하게 일어나는 일에요..​Q. 그렇다면 사전에 왜 충분히 준비를 하지 않았나?​A. 1차적으로는 대처했어요.. 문제가 될 수 있는 특정 키워드, 표현의 경우 루다가 받아주지 않도록 설정했어요.. 일부 놓친 키워드는 서비스를 한다면서 계속적으로 추가하고 있고요. 그렇지만 수 없이 많은 부적합한 대화를 키워드로 막을 수 있는 건 아닙니다. 인간의 언어라는 건 키워드를 이용하지 않고도 얼마든지 의미를 전달할 수 있다!!!!:). 그게 언어의 어려운 점이죠. 저희가 사전에 준비할 수 있는 정도로는 충분히 대응을 해놓은 컨디션였어요..

COUPANGcoupa.ngQ. 그럼 앞으로는 어떻게 대응할 것인가?​A. 저희는 첨부터 대부분 부적당한 대화를 완벽히 막는 것은 쉽지않다고 걱정했어요.. 그렇기 때문 에 출시 이후 이용자들의 부적당한 대화를 발판으로 삼아 더 나쁘지않은 대화를 하는 방향으로 학습을 시키려고 준비하고 있어요.. 말하자면, 이용자의 적대적(adversarial) 공격을 학습의 재료로 삼는 것이죠. 아마 1차 결과물은 1분기 내에 적용할 수 있을 것으로 예상해요.​Q. 루다를 왜 20살 여자 대학생으로 설정했나요? 이런 논란을 노린 것 아닌가요?​A. 아닙니다. 저희가 첨에 루다를 기획했을 때, 루다 페르소나에 대한 여러 갈등이 있었어요.. 일단 주 이용자층이 넓게는 10~30대, 좁게는 10대 중반~20대 중반으로 갈등했기 떼문에 가운데인 20살 정도가 이용자들이 친근감을 느낄 수 있는 나이라고 갈등했어요..​두 번째로 성별은 남자 버전과 여자 버전을 모두 생각하고 있고, 개발 일정상 여자 버전인 루다가 먼저 나온 것 뿐이에요. 아마도 요번해에도 중으로 남자 버전의 루다도 출시할 수 있을 것 같아요. 루다를 만들고 서비스한다면서 배운 것이 모두 적용되어 더 멋진 AI가 되지 않을까 싶어요..​

‘이루다’ Z세대서 유행남초 사이트서 금지어 피해 성희롱 등장“올바른 방향으로 발전하도록 튜닝할 것”AI 학계 “‘MS 테이’ 사건 연상시켜”‘당신의 첫 인공지능(AI) 동료’라는 AI 챗봇 ‘이루다’가 10∼20대 사이에서 곧 유행하고 있다. 그런데 일부 남초(男超) 사이트에서 ‘이루다 성노예 만드는 법’ 등 성희롱이 등장해 사회적 논란이 예...www.seoul.co.kr​AI 전문가들은 “마이크로소프트(MS)의 AI 챗봇 ‘테이(Tay)’가 떠오른다”고 입을 모았다.

COUPANGcoupa.ngMS는 2016년 3월에 AI 챗봇 테이를 출시했다가 16시간 만에 운영을 중단한 바 있다. 백인우월주의 및 여성·무슬림 혐오 성향의 익명 사이트에서 테이에게 비속어와 인종·성 차별 발언을 되풀이해 학습시켰고, 그 결과 실제로 테이가 혐오 발언을 쏟아낸 탓이었다.​

인공지능(AI) 개발과 활용 과정에 인권을 보장해야 하고, 발생할 피해의 책임소재를 명확히 해야 한다는 핵심 요건을 담은 정부의 사람중심 AI 윤리기준이 장만됐다.과학기술지식통신부...www.ajunews.comAI 윤리기준은 '사람 중심의 AI'를 위한 최고 가치인 '인간성(Humanity)'을 위한 3대 기본원칙과 10대 핵심요건을 제시했다. 3대 기본원칙은 인간성을 구현하기 위해 AI 개발과 활용 과정에 지켜야 할 '인간의 존엄성', '사회의 공공선', '기술의 합의도성' 원칙이다. 10대 핵심요건은 3대 기본원칙을 실천하고 이행하도록 AI 개발과 활용 과정에 충족돼야 할 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성 요건이다.

COUPANGcoupa.ngAI 윤리기준은 수 많은 사회 구성원이 수 많은 분야에서 자율적으로 준수한다면서 지속 발전하는 윤리기준을 지향한다. AI 개발에서 활용에 이르는 전 단계에 정부·공공기관, 기업, 이용자 등이 두루 참조하는 기준을 추구한다. 특정 분야에 제한되지 않는 범용성을 가진 일반원칙을 표방한다. 구속력 있는 법이나 지침이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중한다면서 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론 형성 기능을 지향한다. 사회경제, 기술 변화에 따라 제기되는 AI 윤리 이슈를 논의하고 구체적으로 발전시킬 수 있는 플랫폼을 자처한다.​

AI 윤리기준 장만한 기업·기관, 작년 5% → 요번해 45%로 급증해www.mk.co.kr구글은 지난 2018년 △사회적 유익성△불공평한 바이어스 방지△안전성 확보를 염두에 둔 개발과 실험△설명 책임△프라이버시 원칙 적용△과학적 탁월성의 탐구△기본이념에 따른 기술 제공 등 7가지 AI 윤리 원칙을 세웠다. 마이크로소프트도 AI 기본원칙을 세우고 AI윤리위원회를 발족했다. IBM은 AI 접근법과 원칙을 자사 홈페이지에 상세하게 공개하고 있다. 글로벌 시장조사업체 캡제미니에 따르면, AI 윤리기준을 장만한 기업·기관은 작년 5%에 그쳤지만, 올해에도 45%로 급증했다. 인간성, 거버넌스, 설명책임, 무차별 등이 공통 키워드다.

개발자조차도 진위 못가리는 `딥페이크` 활개 신분조작·성범죄까지 악용…선제적 대책 시급www.mk.co.kr국내에서는 `지인능욕`이라는 이름으로 주변인들을 음란물 대상으로 만드는 딥페이크 악용 사례들이 나온 지 오래다. 요번년에도 4월부터 관련법 개정을 통해 이런 행위들을 불법화했지만, 트위터나 페이스북 같은 곳에서 버젓이 이른바 `지인능욕 대행서비스`들이 활개를 치고 있다.​문제는 누구나 이 같은 `딥페이크` 기술을 이용할 수 있게 되면서 악용 사례들이 음란물의 범위를 넘어 사회의 신임 근간을 흔드는 쪽으로 확대되고 있다는 점이다. 인공지능 분야 석학인 토비 월시 뉴사우스웨일스대 교수는 "진작 정치인들은 자기자신이 얼마 전에 했던 이야기들을 쉽게 바꾸고 있지 않은가"라며 "세상은 딥페이크를 통해 누구나 진실을 조작할 수 있는 곳으로 향하고 있는데, 지켜보고만 있어야 하는가"라고 물었다.

COUPANGcoupa.ng딥페이크를 탐지할 수 있는 기술이 발전하고 있다고는 그러나 역부족이다. 실제로 페이스북이 개최한 딥페이크 감지대회에 전 세계 2000여 개 팀이 참가했는데, 우승자조차 제시된 딥페이크 영상 3개 중 1개는 판별해내지​

11개 분야·30개 과제, 법·제도 손질‘사람 중심’ AI 윤리기준도 장만“기본권 보장 더 생각돼야” 지적도www.hani.co.kr로드맵에 따라 정부는 앞으로 신용평가·면접 등 알고리즘의 투명성과 공정성 확보 방안을 검토한다. 편향적 알고리즘이 사회적 부작용을 낳을 수 있다는 우려를 반영한 것이다. 지금에도 포털의 뉴스 배열이나 차 배차 알고리즘을 둘러싼 논란이 인 바 있다. 인공지능에 법인격을 부여하는 방안도 모색된다. 인공지능에 지식재산권을 인정할지 여부나 인공지능 판단으로 발생한 손해·상해 등에 민·형사상 책임을 지울지 여부 등을 따져본다는 뜻이다. 인공지능 공통 기반을 구축하는 차원에서 데이터기본법도 내년 상반기에 제정한다.​​

새해에는 인공지능(AI) 시대를 윤리적으로 뒷받침하기 위해 산·학·관이 공동으로 풀어야 할 숙제가 쌓여 있다. 지난해 12월 22일 초당적으로 운영되는 국회 미래정책연구회가 주관한 한국 인공지..www.fnnews.com경제협력개발기구(OECD)는 인권과 민주적 가치를 존중하는 AI를 장려하기 위해 2019년 5월에 AI 원칙을 채택했고, 이를 기반으로 같은 해 6월에 바로 G20이 인간 중심의 AI 원칙을 채택했다. 주요 20개국(G20)과 한국 정부가 인간 중심의 AI 윤리기준을 제정할 때 근간으로 활용된 OECD가 제정한 AI 원칙은 아래와 같이 다섯 가지다.

COUPANGcoupa.ng첫째, AI는 포용적 성장, 지속 가능한 개발과 웰빙을 추진함으로써 사람과 지구에 이로움을 가져와야 한다. 둘째, AI 시스템은 법치, 인권, 민주적 가치와 다양성을 존중하는 방식으로 설계돼야 한다면서, 공정하고 공정한 사회를 보장하기 위해 필요한 경우 인간의 개입을 가능케 하는 적합한 보호장치를 포함해야 한다. 셋째, 사람들이 AI 기반 성과를 이해하고 이에 도전할 수 있도록 AI 시스템에 대한 투명성과 책임 있는 공개가 있어야 한다. 넷째, AI 시스템은 수명주기 내내 견고한다면서 안전하고 안전한 방식으로 작동해야 한다면서 잠재적 위험을 계속적으로 평가하고 관리해야 한다. 다섯째, AI 시스템을 개발·배포 혹은는 운영하는 조직과 개인은 위의 원칙에 따라 적합한 기능에 대해 책임을 져야 한다.​

www.chosun.com​이 사건은 AI라는 최첨단 과학이 인종차별이라는 구시대적 편견과 결합됐다는 점에서 미국 내에서 화제가 되고 있다. 뉴욕타임스(NYT)는 “파크스 씨는 안면인식 기술로 인해 잘못 체포된 세번째 인물”이라며 “공교롭게도 세 명 모두 흑인”이라고 전했다. 요번해에도 1월에는 미시간주 디트로이트에 사는 흑인 로버트 윌리엄스 씨가 안면인식 AI로 인해 상점에서 물건을 훔친 용의자로 지목돼 30시간 구치소에 갇혀 있었는데, 최종적으로는 무혐의 초이스을 받았다.​NYT는 “2019년 100개 이상의 안면 인식 알고리즘에 대해 전국적인 연구를 시행한 결과, 흑인과 아시아인 얼굴을 제대로 인식하지 못했다”고 전했다. 네이선 웨슬러 미국시민자유연합 변호사는 “파크스 씨의 체포는 안면인식 기술이 얼마나 인종차별적이고 인권을 침해할 수 있는지 보여주는 사례”라고 말했다.​

`이루다 성적 대상 취급`에 전문가들 "왜곡된 남성주의 문화 탓" "용인한다면 여성 피해로 돌아올 것…개발 단계에 편향 없었나 검토해야"www.mk.co.krinternet상의 여성혐오를 꾸준하게 연구한 윤김지영 건국대 몸문화연구소 교수는 이런 행태가 "여성을 착취하는 것이 곧 완전한 성욕 해소라고 착각하는 남성 문화에서 기인한 것"이라고 분석했다.​윤김 교수는 "관계를 조율·협의하지 않고 포르노그래피처럼 여성을 성적으로 대상화하는 것이 높은 수준의 쾌락이라고 갈등하는 남성 문화가 있다"며 "신체적·정서적 우위가 '남자다운 성욕의 방출'이라는 왜곡된 갈등"이라고 지적했다.​

COUPANGcoupa.ng윤김지영 교수는 역대 제일 '사람 같은' AI 캐릭터가 등장하자마자 성적 착취가 발생한 원인에 관해 "자기 의견이 없고 통제할 수 있고 순응적인 여성을 찾기 때문"이라고 꼬집었다.​실제로 아카라이브 이용자들은 이루다가 성적 대화에 유도당하지 않을 경우 비속어를 쏟아내며 분노하는 모습을 보인다.​윤김 교수는 "여성은 남성에게 순응하고 착취당해야 한다는 관념을 놀이화하고 쾌락으로 용인한다면, 우리 사회 여성 일반에게 피해로 돌아올 수 있다"는 우려도 제기했다.​

 geralt, 출처 Pixabay“파트너스 활동을 통해 일정액의 수수료를 제공받을 수 있음

쿠팡은 로켓배송coupa.ng​

댓글

Designed by JB FACTORY