본문 바로가기
AI 윤리

AI윤리, 단순히 기업들만 노력해서는 안된다.

by 끙정 2021. 12. 2.
728x90

Photo by Gilles Lambert on Unsplash

 

https://www.joongang.co.kr/article/25028690#home

 

[View & Review] 5개년 vs 개X…문맥까지 살피는 AI로 욕설 걸러낸다

정창완 넥슨 데이터개발실장은 1일 중앙일보와 인터뷰에서 "자체 개발한 ‘라임’이라는 AI 해석 프로그램을 도입해 욕설이나 비속어, 현금거래 광고 등을 걸러내고 있다"며 "이렇게 삭제·마스

www.joongang.co.kr

 

 오늘 좋은 기사가 떴다. 국내 기업들의 AI윤리 도입에 대한 리뷰를 하는 기사다. 그러나 아직 갈 길은 멀어 보인다.

 

 기사에 따르면 대부분의 기업들이 추구하는 AI의 윤리는 '차별 금지'다. 그것은 일전에 있었던 '이루다 사태'에 대한 반성일 것이다. 그러나 차별 금지라는 윤리적 이슈를 달성하기는 기술적으로 정말 힘들다. 이루다가 차별적인 발언을 내뿜게 된 이유는 차별적인 데이터를 학습했기 때문인데, 이 문제를 해결하기 위해서는 데이터를 필터링해서 학습시켜야 하기 때문이다. 아니면 학습을 시킨 다음 운영 과정에서 필터를 집어넣을 수도 있는데, 결국은 모두 인간이 해야 한다. 그런데 인간이 신이 아니고서야 어떻게 그 많은 차별적인 데이터와 이슈를 컨트롤할 수 있을까? 결국에는 어디선가 문제가 생겨날 수밖에 없는 것이다. 애초에 사람이 윤리적이지 않은데, 기계에게 윤리를 바라는 것이 어불성설이다.

 

 그에 있어서 넥슨이 연구 중이라고 하는 필터링 기술은 관심이 간다. AI에게 학습시킬 데이터가 편향이 없도록 알고리즘을 만들어서 필터링한다고 하는데, 과연 그 수준이 어느 정도 일지, 어떤 원리 일지 궁금하다. 추후 넥슨이 기술 콘퍼런스를 열게 된다면 반드시 해주었으면 하는 바람이다.

 

 그러나 아쉬운 점은 '이루다 사태'의 영향 때문인지, 대다수의 기업들의 AI윤리가 자연어 처리 분야에 쏠려 있는 듯한 느낌이다. 겉으로 드러나는 문제는 아무래도 실제 사용자들이 AI를 사용하고 있다고 느낄 수 있는 분야일 수 밖에 없다. 예를 들면 비전 분야나 자연어 처리 분야. 그렇지만 더욱 큰 문제는 겉으로 드러나지 않는 분야들이다. 예를 들면 추천 시스템이나 고객 타겟팅. 아직 AI 윤리가 시작하는 단계이기 때문에 큰 기대를 걸 수는 없지만 앞으로 점차 많은 분야에 대한 윤리 규범이 마련되었으면 하는 바람이다.

 

 여기서 더 나아가 AI윤리를 위해서는 해당 AI를 사용하는 사용자들의 윤리가 그만큼 중요하다고 볼 수 있다. '이루다 사태'를 간단히 언급하자면 두 가지 측면에서 문제가 되었는데, 첫 번째로 이루다를 만들 당시 학습에 사용한 데이터가 일부 개인정보 이슈가 있었다는 점, 두 번째로 이루다 사용자들이 비윤리적인 사용으로 인해 이루다가 편향적으로 학습을 하게 되었다는 점이다. 실제로 이루다를 만든 회사가 법적으로 문제가 된 것은 첫 번째 문제인데, 이것은 충분히 거버넌스를 통해서 컨트롤할 수 있는 문제다. 그러나 두 번째 문제는 사용자들이 비윤리적이기 때문에 AI가 비윤리적으로 변한 것이기도 하다. AI를 만드는 기업들도 AI윤리를 신경 써야 하는 것은 맞지만, AI를 사용하는 사람들도 AI에 대한 이해도를 높이고, 비윤리적인 사용을 하지 않도록 해야 한다. 기업이 AI사용자들에게 윤리 서약서를 받는 것도 한 방법일 것이며, 비윤리적인 사용에 대해 제제를 가할 수 있는 법적 근거를 마련하는 것도 좋을 것이다.

 

 그리고 기사에서 마지막에 언급한 전문인력 부족에 대한 이야기는 정말 기사의 문제에 어울리지 않는 뚱딴지같은 소리다. AI윤리 문제에 있어서는 전문인력 확보가 문제가 아니다. 어떻게 엔지니어들에게 AI윤리에 대해 인지 시키고 AI윤리관을 가진 엔지니어들을 양성시키느냐가 관건이다. 세계 유수의 대학에서 이미 많은 AI엔지니어들이 쏟아져 나오고 있지만, 그들이 AI윤리에 대해서 단 1학점이라도 듣는 사람은 많지 않을 것이다. 아니 애초에 AI윤리에 대한 수업이 있는지도 모르겠다. 결국 문제는 AI윤리관을 제대로 장착한 인재를 양성시키는 게 문제인 것이다. 이는 기업이 아닌 학계에서 힘 써야 할 문제인 것이다.

 

 

 정리하자면,

1. 기업들이 자연어 처리 분야 외에도 다양한 기술 분야에서 AI윤리 마련에 힘 써주면 좋겠다.

2. 엔지니어들뿐만 아니라 사용자들도 윤리적 사용에 힘써야 한다.

3. 엔지니어들을 많이 양성하는 것을 넘어, 제대로 된 AI윤리관을 갖춘 엔지니어들을 양성해야 한다.

728x90

'AI 윤리' 카테고리의 다른 글

알고리즘 불신의 시대  (0) 2022.10.01

댓글