메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

한빛출판네트워크

한빛랩스 - 지식에 가능성을 머지하다 / 강의 콘텐츠 무료로 수강하시고 피드백을 남겨주세요. ▶︎

IT/모바일

얼굴인식의 윤리

한빛미디어

|

2017-02-15

|

by Mike Loukides

20,411

AI 시스템을 적극적으로 저지하고, AI 시스템의 부정확성을 알려 갈 AI 연구원들이 필요합니다.

 

AI의 현재 상태 및 향후 몇 년 안에 다가올 AI에 대해 깊이 알아보기 위해, Mike Ludkides 와 Ben Lorica가 쓴 "인공지능이란 무엇인가"라는 무료 ebook을 받아보세요.

 

몇 주 전에, 나는 인공지능의 윤리에 관한 글을 썼습니다. 그 이후로 우리는 범죄를 저지를 가능성이 있는 사람들을 식별하기 위해 얼굴인식을 사용하는 훌륭한 사례를 제시했습니다(이 연구에 관한 많은 기사가 있었지만, 나는 이것만을 링크하려 합니다).

 

저의 포스트에서 우리는 어떤 종류의 사회를 건설해야 하는지에 관해 논의할 필요가 있다고 말했습니다. 저는 최악의 사회 여건 속에서도 우리의 눈이 너무 가깝게 자리 잡고 있기 때문에 투옥될 수 있는 사회를 원하지 않는다고 확신합니다. New Scientist의 기사에 따르면 연구자들은 올바른 반대 의견을 제시하고 있습니다. 범죄자 및 비 범죄자에 대한 교육 데이터는 두 가지 다른 출처에서 취해졌습니다. 민족성이 아마 화두가 될 것입니다. 그리고, 우리는 AI를 "최신 21세기 골상학(관상 - 특정 범죄자의 외모에 공통점이있다는 - 학문) 혹은 매스워싱(SNS등 빅데이터를 이용한 통계분석)으로 만들 위험이 있습니다.

  • AI 개발자는 어떤 프로젝트를 진행할지 선택할 수 있습니다. 그러나 연구가 뒤에서 몰래 진행되지 않고 대중에게 불투명해지지 않는 것이 중요합니다. 이것에 대해 나는 몇 가지 부분을 제시하려 합니다. 연구자와 개발자는 자신들이 반대하는 프로젝트에 참여하지 않기로 선택할 수는 있지만, 참여하지 않는 것보다 좀 더 괜찮은 방법들이 있습니다. 몇 연구원들은 AI를 통한 얼굴인식이 사용되는 것을 막기 위해 자신의 헤어 스타일, 염색된 머리 그리고 기타 화장품들을 사용하였습니다. 이것은 분명 꾸준히 가열되는 싸움입니다. 현재 우리가 사용하는 것들은 1년 후에는 사용되지 않을 것입니다. 그러나 더 중요한 것은 얼굴인식 기술이 무엇인지, 어떻게 동작하는지 이해하고 대중에게 알리는 것입니다.
  • 재범률을 판단하는 COMPAS를 사용하는 Abe Gong씨와 데이터 기반의 교사 평가를 사용하는 Cathy O'Neil씨는 수학을 기반으로 동작하는 시스템에 대해 폭로했습니다. Gong씨의 통계적 정의와 사람에 의한 정의인 편향에 대한 구별은 특히 중요합니다. 사람들이 공정하지 않는 한 수치적으로 자료가 편향되기는 매우 쉽습니다. O'Neil씨는 당신만이 승자이고, 다른 공평한 플레이를 하려는 사람들을 필연적으로 패자로 만드는 시스템을 만드는 것은 매우 쉽다고 지적했습니다. 우리는 많은 연구원들이 이렇게 일하도록 해야 합니다: 우리는 머신 러닝과 AI가 어떻게 사용되는지 이해하고 어떻게 결론을 도출하는지를 알고 그것을 대중에게 알릴 필요가 있습니다.

그래서 AI연구에 참여하지 않는 연구원들은 적극적으로 시스템을 막기 위해 활동하는 선택을 하거나 내장된 결함을 폭로하는 활동을 할 수 있습니다. 두 가지 방법 모두 필요합니다.

 

New Scientist에서 "얼굴인식을 사용하는 U.S의 대다수 경찰 부서들이 소프트웨어의 정확성에 대해 확신하지 못한다."고 지적했듯이, 경찰 부서들은 정확하게 AI 소프트웨어가 자신들의 일을 편리하게 해준다고 평가할 수 있는 전문지식이나 의향을 가지고 있지 않습니다. "이것은 당신의 일을 쉽게 해주는 마법입니다."라는 말은 이미 열심히 일하는 사람들을 유혹하는 문구일 뿐입니다. 공식적인 지식이 없는 사람들을 AI 시스템이 테러리스트들을 물리칠 수 있다고 현혹되게 하는 것은 매우 쉬운 일입니다. AI에 대해 잘 아는 사람들은 그러한 제안에 대한 문제를 지적합니다. 최소한, 테러리스트의 수는 너무 적어서 좋은 데이터를 도출하기는 불가능합니다. 심지어 좋은 데이터를 가졌다 하더라도 5% 미만의 오류를 가진 시스템을 만드는 것은 매우 어려운 일 입니다. (16백만명의 미국인, 37억명의 세계인을 통틀어서) 그리고, 그런 에러가 나기 쉬운 시스템은 쓸모 없는 것 이상으로 위험합니다.

 

문제에서 한 발 물러서 있는 것은 절대 답이 아닙니다. 점점 더, 우리가 얻을 수 있는 미래 보다는 원하는 미래를 만들어 갈 AI 연구원들이 필요합니다. 그것은 AI 시스템을 적극적으로 저지하고, AI 시스템의 부정확성을 알려 갈 연구원들을 포함합니다. 어떤 그룹도 관망하기만 할 수는 없습니다. 관망하기만 한다면 우리는 AI 시스템의 수혜자가 아닌 피해자가 될 것입니다.

 

      

 

*****

 

원문 : The ethics of face recognition

번역 : 이승표

댓글 입력
자료실

최근 본 상품0