본문 바로가기
AI 윤리

알고리즘 불신의 시대

by 끙정 2022. 10. 1.
728x90

혹자는 현시대를 '알고리즘 불신의 시대'라고 명명하고 있습니다. 아직까지 그 정도는 아니겠지만, 곧 그 시대가 다가오리라 생각합니다. 아직 '알고리즘 불신의 시대'가 오지 않은 이유는,

 

1. 사람들이 어느 영역까지 인공지능 알고리즘이 쓰이는지를 모르고,

2. 그 인공지능이 어떻게 인공지능이 되는지 모르고,

3. 누군가 문제 제기를 강력하게 하지 않았기 때문입니다.

 

3번이 가장 크겠네요. 문제 삼지 않으면 문제가 되지 않을 테니.

 

그러나 우리는 이루다 사태를 보았듯이, 어느 날 아주 갑자기, 빠른 속도로 알고리즘 파괴 운동이 일어날 것입니다. 인스타그램은 결국 피드의 추천 시스템을 내리고, 시간순으로 노출하기로 했습니다. 네이버와 카카오도 뉴스 큐레이션을 중단하고, 사용자가 직접 언론사를 선택해서 구독하는 시스템으로 바꿨습니다. 추천 시스템으로 유명한 넷플릭스, 왓챠를 비롯한 OTT 서비스도 최근에 들어서 추천 시스템을 줄여나간다는 인상을 줍니다.

 

러다이트 운동은 계급투쟁의 일환이었지만, 인공지능도 크게 다를 바 없습니다. 결국 기업(자본가)들이 만들어내는 인공지능 알고리즘(기계)으로 생존권을 위협받는 노동자들이 기계를 부수는 것입니다.

 

인공지능 알고리즘이 가지는 문제점을 몇 개만 추려보면 다음과 같습니다.

 

1. 알고리즘에 의해 지속적으로 편향된 콘텐츠에 노출이 된다.

  -> 개인화 알고리즘은 사용자가 좋아하는 콘텐츠만 보여주기 때문에 지식이나 정보의 다양성을 말살함. 이는 민주주의를 위협하고 사회를 극단적이고 단순하게 만듦

 

2. 어떤 원리에 의해서 알고리즘이 만들어졌는지 알 수가 없다.

  -> 알고리즘 원리를 알 수 없기 때문에 기업의 서비스가 어떤 이유와 조건에서 이루어진 건지 알 수 없음. 기업은 영업상의 비밀이라는 이유로 알고리즘을 공개하지 않음. 아니 애초에 그 알고리즘을 만든 본인들도 모름. 블랙박스이기 때문에.

 

3. 어떤 데이터를 학습했는지 알 수가 없다.

  -> 이루다 사태를 촉발시킨 근본적인 문제이며, 어디서 어떻게 구한 데이터로 어떻게 학습시켰는지 알려주지 않음. 데이터를 모르니 알고리즘에도 접근할 수가 없음.

 

4. 어찌 되었든 알고리즘도 실수를 한다.

  -> 100% 완벽한 인공지능은 불가능하지만 인간은 인공지능이 완벽한 존재일 것을 기대함. 그러나 인공지능도 결국에는 데이터를 기반으로 이루어지는 것이며 100%는 존재할 수 없음. 그 실수에 대한 책임 소재가 불분명함.

 

5. 알고리즘을 사용하는 인간들이 윤리적이지 않다.

  -> 윤리적이지 않은 인간의 데이터를 통해 학습하는 인공지능이 윤리적일 수 없음. 알고리즘은 사용자들이 사용하는 과정에서도 데이터를 얻고 학습을 하는데, 사용자들이 애초에 윤리적이지 않음. 이루다 사태를 만든 건 데이터의 문제도 있지만, 사용자들의 비윤리성 때문이기도 했음.

 

인공지능 알고리즘은 대중들의 생각보다 훨씬 더 많은 영역에서 사용되고 있습니다. 저도 공부를 하다 보니 이제 보이더라고요. 단지 우리는 그 사실을 모른 채, 아직 내 삶에 큰 문제가 안되니까, 그냥저냥 살아갑니다. 그러나 알고리즘은 마치 충치와도 같습니다. 오랜 시간 아주 조금씩 인간에게 영향을 줍니다. 아파서 치과에 갔을 때는 이미 늦습니다.

 

그러나 인간은 인공지능 알고리즘 없이 살아갈 수 없습니다. 그렇다면 당장의 해법은 설명 가능한 AI(XAI, eXplainable Artifitial Intelligence)뿐입니다. XAI는 설명 가능한 인공지능이라고 하여, 인공지능 알고리즘이 어떤 원리에 의해서 구성이 되었고, 결과물의 원인들을 보여주는 것을 뜻합니다. XAI 프로젝트는 사람들은 잘 모르지만 인터넷의 전신인 Arpanet과 스텔스, GPS 등을 만든 미국의 연구 기관 DARPA가 2016년부터 진행 중인 프로젝트 중에 하나입니다. 그만큼 미래에 중요한 기술입니다. 사용자들은 기업들로 하여금 알고리즘의 원리와 데이터에 대해 설명받고 안내받을 권리를 가져야 합니다. 그것만이 기업과 사용자들이 함께 알고리즘 불신의 시대를 이겨낼 해법입니다. XAI에 대한 이야기는 다음 기회에...

 

 

'알고리즘 불신'의 시대

인스타그램이 알고리즘을 걷어내겠다고 발표했습니다. 알고리즘의 폐해를 지적한 페이스북 페이퍼를 염두에 둔 결정입니다. 알려졌다시피 인스타그램의 알고리즘은 10대들의 정신건강에 위험

mediagotosa.com

 

[단독] 법무부만이 아니었다…부천·안산·제주서도 얼굴 정보로 AI 개발

정보인권 단체, “본인 동의 없이 수집 공공데이터 개방 적법한가”…“감시 사회된다”

www.hani.co.kr

 

 

세상을 차별하는 데이터인가? 차별하는 세상을 반영하는 데이터인가? - MIT Technology Review

데이터와 알고리즘에 불필요한 이데올로기가 반영될 수 있다. 해로운 이데올로기에 대한 책임은 누구에게 있는 것인가?

www.technologyreview.kr

 

 

'사람이 이해할 수 있는 AI' 설명가능한 AI를 설명하다

머신러닝과 딥러닝 모델은 대체로 분류와 예측에 효과적이지만 완벽한 경우는 사실상 없다. 모델에는 거의 항상 어느정도 비율의 가양성, 가음성 예측

www.itworld.co.kr

 

 

<사진 출처: http://www.aitimes.kr/news/articleView.html?idxno=14859>

728x90

'AI 윤리' 카테고리의 다른 글

AI윤리, 단순히 기업들만 노력해서는 안된다.  (1) 2021.12.02

댓글