본문 바로가기

인공지능(AI) 윤리 지침

%@#$@ 2022. 5. 26.

발전하는 인공지능(AI) 윤리(ethics)에 대한 쟁점을 다루기 위해 국내외 관련협회에서 세운 기준에는 무엇이 있는지 간단히 소개해보겠습니다. 아울러 인공지능의 편향된 학습으로 인해 일어난 문제에 대해서도 다뤄보겠습니다.

 

 

인공지능
인공지능 윤리 강령

인공지능(AI) 윤리 지침

인공지능이란?

인공지능(Artificial Intelligence)은 인간 지능을 모방해 개발한 시스템을 말한다. 초기에는 인간이 데이터 수집해 수작업으로 컴퓨터에 주입해 학습을 수동적으로 시켰다면 요즘은 컴퓨터가 이전에 학습한 데이터를 통해 즉, 경험을 통해 스스로 개선하도록 하는 머신러닝 기술로 한층 인공지능이 개선되었다.

사용 가능한 데이터가 증가할수록 정보는 더 명확해져, 주거공간, 쇼핑, 대중매체, 의료 분야 등 다양한 영역에서 이용되고 있다.

 

※인공신경망(ANN, Artificial Neuron Network) : 인간의 뉴런을 모방하여 프로그래밍된 네트워크를 말한다. 다른 말로는 노드라고 하며, 뉴런처럼 노드 역시 신호에 반응하여 정보를 처리한다.

다만 인간과 다르게 숫자로 된 신호를 수신한다. 이러한 수많은 인공신경망 노드를 서로 연결하여 계층(병렬) 형태로 층층이 쌓인 신경망을 심층 인공신경망이라 하는데 이게 바로 딥러닝이다.

 

AI가 우리 주변 곳곳에 일상화되어 최근 국내외에서 AI로 인해 제기되는 인문사회학적 문제를 탐색하는 연구활동이 활발해지고 있다.

특히 빅데이터 기술(딥러닝, 머신러닝)로 인해 개인 사생활 침해나 저작권 침해 등 윤리적 측면이 문제 되고 있다.

 

 

세계 각국이 발표한 AI윤리 강령

AI는 인간에 의해 제공된 데이터를 통해 학습을 한다. 즉, AI의 성향은 인간이 결정한다. 만약 인간이 데이터를 제공할 때 특정 목적을 지닌 채 일정한 결과를 도출해내기 위해 편향된 정보를 제공한다면 인류는 커다란 재앙에 직면할 수 있다.

 

<챗봇 AI 이루다 논란>
지난 2020년 12월 23일 대한민국 스타트업 기업에서 챗봇 AI '이루다'를 출시했다. 이루다는 20대 여대생 콘셉트인 대화형 인공지능이다.

대화형 챗봇 이루다는 출시 직후 이용자가 40만 명이 넘을 정도로 큰 관심을 받았었다. 하지만 이루다는 출시한 지 3주 만에 서비스가 잠정 중단됐다.

이유는 이루다의 여성, 장애인, 흑인에 대한 혐오발언 때문이다. 이루다는 일부 악성 이용자의 부적절한 발언을 그대로 학습하여 논란이 된 비하 발언을 한 것으로 알려졌다.

대화형 인공지능 챗봇 '이루다' 논란으로 한국 인공지능 윤리협회에서는 아래와 같은 성명을 발표했다.

"AI 기술은 잘못 개발되거나 사용될 때 인간에게 미치는 위험성과 역작용이 막대할 수 있다. 그렇기 때문에 AI기업들은 제품 출시 전에 AI윤리 가이드라인의 자율적 준수와 검증을 촉구한다. 인공지능 윤리의 중요성과 당위성이 강조되는 계기가 되길 바란다."

 

이루다는 논란이 된 이후 데이터베이스를 전량 폐기했다. 다만 이루다의 사고 회로 자체를 삭제하진 않고, 중추신경계의 기억을 삭제했다.

 

그리고 지난 22년 3월 17일 '이루다 2.0' 베타 테스트를 시작했다. 때문에 이런 한쪽으로 치우친 정보를 학습하는 인공지능이 개발되지 않도록 인공지능의 윤리 기준이 필요하다.

 

 

1. AI윤리를 위한 로마 선언(Rome Call for AI Ethics)

지난 2020년 2월 28일 로마 교황청에서 AI윤리를 위한 로마 선언을 발표했다. 주요 내용은 윤리(Ethics), 교육(Education), 권리(Right)등 3개 부문에 걸쳐 가이드라인을 제시했다.

대략적으로 소개하면 AI 시스템을 만들고 사용할 때 자유와 존엄성이 보호되고 보장되어야만 한다. 그리고 알고리즘에 의해 인종, 피부색, 언어, 종교, 정치적 견해, 성, 재산, 출신 등에 따라 차별받지 않아야 한다고 가이드라인을 제시했다.

 

AI의 윤리적 이용을 위해 필요한 6가지 원칙
: 투명성, 포괄성, 책임성, 공정성, 신뢰성, 보안, 안정성과 사생활 보호

 

2. OECD 인공지능 권고안

2019년 5월 경제협력개발기구(OECD)의 경제협력개발기구 각료이사회(OECD MCM)에서 인공지능 권고안을 제시했다. 권고안은 구체적으로 5가지를 제시했다.

  • 포용적 성장, 지속가능성
  • 인간가치/중심, 공정성
  • 투명성과 설명 가능성
가. 투명성(transparency)
①일반, 추성적 원칙 : 논란 가능성은 없다.
②설명 가능성(exlplainability) : 무엇을 어떻게 그리고 어디까지 설명 가능한가에 대한 공학적 기법의 한계에 직면함. 논란 가능성 많다.
③알고리즘 투명성 : 알고리즘 즉, AI 프로그램 코드 자체를 투명하게 할 수 있는가에 대한 문제 발생.

나. 강인성과 안전성(견고성, 보안 및 안정)

다. 책임성
①responsiblitity : 도덕적 행위책임을 말한다.
②liability : 인사상, 형사상, 행정상 법적 책임을 말한다. 즉, AI가 범죄를 저질렀을 때 이에 대한 책임소재 범위를 어디까지로 할 것인가에 대한 것이다(AI 자체/ 개발자/ 회사).
③accountanbility : 포괄적 책임. 책임, 책무, 설명 책임(질문에 대한 설명 그리고 소명에 대한 책임)

 

 

3. 아실로마 AI원칙

지난 2017년 NGO에서 인공지능 윤리에 대한 원칙을 발표했다. IT 관계자(공학자)들이 주도해서 만든 원칙이다. 때문에 공학적 시각이 원칙에 상당히 많이 담겨 있다.

미래 인공지능 연구의 23세 가지 원칙으로 AI를 인류에게 이로운 방향으로 발전시키려는 목적으로 제정되었다.

연구 이슈(5개), 윤리와 가치(13개), 장기 이슈(5개) 등 3 부분으로 구성되어 있다. 아실로마 AI원칙 중 윤리와 가치 분야를 간단히 살펴보면, 안전/실패의 투명성/ 책임성/ 인간의 가치 등 다른 곳에서 발표했던 원칙과 많은 차이점은 없다고 할 수 있다.

우리나라는 로봇윤리헌장을 2007년 세계 최초로 국가 주도로 재정하려 했으나, 당시에는 초안만 발표돼 공식화되진 않았다. 윤리헌장에는 로봇기술과 윤리적 한계, 로봇 제조자의 책임이 들어있었다.

그리고 지난 2018년 인공지능(AI) 윤리 가이드라인이 발표했다.

기본방향은 인간의 복지, 권한, 자유의 확대라는 측면에서 AI 기술로 인한 위험요소들과 부작용을 줄일 수 있는 윤리규범을 제시하려 것이었다.

 

 

ChatGPT 초보 사용자를 위한 사용메뉴얼 : 활용 사례와 관련 자료 및 도구

ChatGPT에 대해 소개하고, ChatGPT 사용방법과 기능, 그리고 chatgpt를 활용한 여러 가지 사례와 자료, 도구에 대해 다뤄보겠습니다. chatgpt를 처음 사용하는 분들에게 도움이 될만한 정보를 담고 있으

write-keyboard.tistory.com

댓글