[LAW & JUSTICE] 요즘 HOT한 IT- AI와 윤리
상태바
[LAW & JUSTICE] 요즘 HOT한 IT- AI와 윤리
  • 한국마이크로소프트 정책, 협력, 법무팀
  • 승인 2018.12.24 16:15
  • 댓글 0
이 기사를 공유합니다

한국마이크로소프트 정책·협력·법무팀

※ 이 글은 법조매거진 <LAW & JUSTICE> 10월호에 실린 글입니다 ※

제2의 히포크라테스 선서가 탄생한다면 그 직종은 어디일까. 곁에 바짝 다가선 인공지능(AI) 시대가 힌트가 될 듯싶다. 조만간 컴퓨터 프로그래머에게 윤리학(Ethics)은 필수과목이 될 지도 모른다. 인공지능 개발에 관여하는 코더(Coder)에게 윤리적 의무와 책임이 없다면 그 기술은 재앙이기 때문이다. 마치 생명을 다루는 의사에게서 양심을 거세한 것이나 다름없다.

디지털의 혁명적 발전은 우리에게 혜택과 도전과제를 동시에 안겨주고 있다. 지난 10여년간 사이버 해킹, 개인정보유출 사고, 소셜 미디어를 이용한 테러 등은 주요한 뉴스 카테고리였다.

AI의 등장으로 머신(machine)에 학습, 인지 능력이 더해지면서 문제는 한층 더 복잡해졌다. 법규는 이 변화에 턱없이 뒤처져 있다. 관련 국제표준을 제정하는 일도 거북이 걸음이다. 국가별, 이익단체별 이해관계가 첨예한 것도 한 원인이다. 와중에 일단 규제부터 하고 보자는 국가도 생겨났다. 우버, 구글 지도를 허용하지 않는 한국도 그 범주다.

반면 새 기술의 행로를 방해하지 않으면서도 철학적 고민을 병행하고, 심도 있는 사회적 논의를 끌어가는 곳도 있다. “컴퓨터가 할 수 있는 일이 무엇인가”에서 “컴퓨터가 해야 할 일이 무엇인가”로 질문도 바뀌었다.
 

한국마이크로소프트 정책, 협력, 법무실

한 예로 지난 3월 유럽연합집행위원회(European Commission)는 AI 윤리 지침 제안서를 만들기 위해 그룹 미팅을 소집했다. 위원회는 “AI를 가장 잘 활용하기 위해서는 윤리적 원칙을 존중하는 것이 필수적이다. 신뢰는 필수 (Trust is must)”라고 했다.

글로벌 IT기업들이 AI와 전혀 관련 없을 듯한 인문학 전공자를 대폭 고용하는 현상은 이런 고뇌가 불러온 변화다. 실리콘밸리의 벤처캐피털리스트 (VC) 스콧 하틀리는 저서 ‘The Fuzzy and The Techie’에서 “기술발달로 코딩의 장벽은 점점 낮아지고 있으므로 인공지능 시대에 더 중요한 것은 ‘올바른 질문을 하는 능력’”이라고 강조했다. 이런 질문 능력은 인문학 공부를 통해 얻어질 수 있다고 그는 주장한다.

한 가지 분명한 사실은 인간 중심의 AI는 공짜로 얻을 수 없다는 점이다. AI는 인간을 대체하는 것이 아니라 인간의 능력을 확장하는 도구여야 한다는 사회적 공감이 뒷받침돼야만 한다. 인간의 창의성, 판단력을 대체하는 기술은 결코 인간에게 행복한 미래를 가져다 줄 수 없기 때문이다.

또 AI 시스템은 때때로 더 큰 차원의 사회적 그림을 보지 못한다. 이 같은 맹점과 편견을 파악하려면 인간의 판단력을 동원할 수밖에 없다. 결국 AI의 잠재력을 긍정적으로 발휘하려면 신뢰할 수 있는 시스템을 먼저 구축해야 한다. IT 기업들에게 이 문제는 기업의 책임인 동시에 생존의 문제로 부상했다.

마이크로소프트를 예를 들면, 인공지능의 개발과 사용에 가이드가 될 6가지 윤리 원칙을 제시하고 있다. AI 시스템이 (1)공정하고 (2)안전하면서 안정적이고 (3)프라이버시(privacy)와 보안을 보장하고, (4)포용적이고 (5)투명하고 (6)책임을 보장해야 한다는 내용이다.

우선 공정성만 놓고 보자. 만약 AI 시스템이 대출 신청, 고용에 대한 안내를 할 때 사람을 성별, 거주지별, 학력별, 인종별로 차별한다면 끔찍한 일이다. 비슷한 경제상황에 처한 사람, 비슷한 경력을 가진 사람에게는 동일한 내용을 추천해야 한다. 즉 중요한 것은 AI를 만드는 것 자체가 아니라 AI가 얼마나 공정하게 작동하도록 하느냐이다.

프라이버시 역시 신뢰의 핵심요소다. 우리 삶의 많은 부분이 디지털 형식으로 저장되고 있는 현실에서 개인정보를 보호하는 문제는 더욱 중요하면서도 복잡해지고 있다. 사람들은 자신의 데이터가 안전하다고 확신하지 못하면 이를 공유하려 하지 않을 것이다. 데이터 경제 시대의 관건은 기술개발의 속도라기보다는 오히려 신뢰 구축의 문제인 셈이다.

최근 글로벌 IT기업들이 AI에 기반한 안면 인식 기술을 앞 다투어 선보였을 때 개인 프라이버시 침해 우려도 많았다. 정부가 정치집회에 참석한 사람들의 얼굴 정보를 데이터베이스(DB)로 저장하거나 당사자의 허락 없이 이동경로를 추적할 수 있다는 이유에서다. 건전한 의미에서의 규제는 이때 필요하다.

AI 시대에 윤리의 울타리를 세우는 일은 게임의 룰을 만드는 것과 같다. 룰이 없는 게임은 그것이 얼마나 다이내믹 한들 야만에 불과할 것이다. 기능과 기술, 지식이 강조되던 시대를 지나 우리는 다시 윤리를 호명하고 있다. AI 시대의 기분 좋은 역설이다.

xxx

신속하고 정확한 정보전달에 최선을 다하겠습니다.
이 기사를 후원하시겠습니까? 법률저널과 기자에게 큰 힘이 됩니다.

“기사 후원은 무통장 입금으로도 가능합니다”
농협 / 355-0064-0023-33 / (주)법률저널
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
공고&채용속보
이슈포토