Search
Duplicate

#5 AI 시대, 5가지 원칙

Issue
Issue 5
날짜
2022/10/21
시즌
Season 1
작성자

 Cover Story

미 백악관 홈페이지(whitehouse.gov)에서 화면 캡처

백악관에서 발표한 AI 권리 장전 청사진

지난 10월 초, 미국 백악권에서는 Blueprint for an AI Bill of Rights를 발표했습니다. 제목 그대로 AI 권리 장전의 청사진을 그린 것인데요, 인공지능 시대를 맞이하며 자동화되는 시스템 속에서 미국인들의 권리를 보호하고, 올바르게 기술을 디자인하거나 활용할 수 있도록 5가지의 기본 원칙을 제안합니다. 이 원칙들은 비단 엔지니어뿐만 아니라 책임감 있는 자동화 시스템을 위해 각 개인과 정부 모두를 위한 것이라고 말합니다. 이번 글에서는, AI 권리 장전에 담긴 5가지 원칙들을 하나씩 살펴보고자 합니다.
안전하고 효과적인 시스템 (Safe and Effective Systems)
안전하지 않고 잘못된 시스템(Unsafe or Ineffective Systems)으로부터 보호 받아야 한다.
가장 먼저 강조하는 것은 시스템으로부터 보호받고 안전을 보장 받는 것입니다. 자동화 시스템을 구축할 때는 반드시 다양한 사회 구성원들과 주주들, 그리고 각 영역의 전문가들과 상의를 거쳐 어떤 우려 사항이 있고 위험 사항이 있는지 밝혀내야 합니다. 그리고 사전 배포 테스트를 거치면서 위험 사항을 식별하고 안전하지 않은 결과를 발생시키지 않도록 주의를 기울여야 합니다. 부적절한 데이터 사용 또한 지양해야 합니다. 부적절하거나 관련 없는 데이터의 사용으로 개인의 피해가 발생하지 않도록 하며, 재사용시에도 위험을 초래해서는 안 됩니다.
알고리즘의 차별 방지 (Algorithmic Discrimination Protections)
알고리즘으로부터 차별을 겪지 않아야 하며, 시스템은 반드시 평등한 방향으로 사용되고 디자인되어야 한다.
알고리즘은 완전하지 않습니다. 때로는 인종 / 성에 따른 차별적인 결과를 보여주기도 합니다. 두 번째는 이러한 알고리즘의 차별을 방지하는 것입니다. 일반적으로 생각하는 인종, 피부색, 성별뿐만 아니라 성 정체성과 성적 지향, 종교, 나이, 국적, 장애 등을 포괄하여 법적으로 보호 받는 모든 권익에 대해 침해하지 않도록 해야 합니다.
데이터 정보 보호 (Data Privacy)
내부적인 조치로 데이터 남용으로부터 보호되어야 하고, 데이터가 어떻게 활용되는지 알 수 있는 기관이 있어야 한다.
인공지능 시스템 구축을 위해서는 데이터 수집이 필수적입니다. 하지만 이 데이터를 구축하는 과정에서 반드시 개인의 권익은 존중받아야 하며 내부적인 시스템을 통해 보호 받아야 합니다. 데이터를 수집하더라도 합리적인 기대 범위 속에서 활용되어야 합니다. 그리고 난해하고 어렵게 만드는 사용자 경험을 보여주어서는 안 되며, 사용자 개인의 권리를 침해받을 수 있는 선택이 기본 옵션으로 되어 있어서는 안 됩니다. 반드시 수집 단계에서 동의 여부를 물어야 합니다. 그리고 이때에도 명료하고 쉬운 언어로 설명되어야 합니다.
고지와 설명 (Notice and Explanatioin)
자동화 시스템이 어떻게 사용되는지 알아야 하고, 당신에게 영향을 미친 결과물이 어떻게, 왜 만들어졌는지 이해해야 한다.
일상 생활 속에서 이용 약관, 음식 성분표 등을 꼼꼼하게 읽어보신 기억이 있으신가요? 약관이라고 하면 왠지 어렵고 복잡한 내용들이 가득할 것 같아서 자세히 읽어보지 않는 경우가 많습니다. 하지만 데이터를 수집하거나 활용하는 데 있어 이런 어려움들은 없애야 합니다. 쉬운 언어로 쓰인 문서와 데이터가 쓰이는 시스템의 기능을 설명해야 합니다. 결과에 대한 설명도 포함되어야 하고요. 그리고 그 결과가 어떻게, 왜 나왔는지 설명되어야 합니다.
인간적인 대안, 고려, 그리고 대비책 (Human Alternatives, Consideration, and Fallback)
사용자는 선택하지 않을 수 있으며, 문제에 처했을 때 신속하게 고려하고 해결할 수 있는 사람에게 접근할 수 있어야 한다.
만약 알고리즘이 잘못된 방향으로 계속 수행되고 있다면, 어떻게 막을 수 있을까요? 예를 들면, 계속 원치 않는 광고가 화면에 보인다거나, 차별적인 광고가 보인다면 어떻게 행동해야 하는 것일까요? 인공지능의 판단에 의해 상해를 입거나 목숨까지 위험한 상황이 온다면 어떻게 통제해야 하는 것일까요?
이를 위해 인간적인 대안을 마련해야 합니다. 때로는 법적으로도요. 사고라는 것은 보통 뜻하지 않게 발생하기 때문에 문제를 예방하기 위해서는 정말 숙고의 과정을 거쳐야 합니다.
AI 권리 장전에 대한 5가지 원칙을 알아보았습니다. 원문에서는 이 원칙들을 어떻게 실용적으로 적용할 수 있는지 설명하고 있습니다. 요약하면 지속적인 감시 시스템과 피드백 체계를 갖춰야 한다는 것입니다. 알고리즘에서 차별적인 편향이 발생하거나 데이터에서 개인 정보를 침해하는 결과가 발생했을 때, 신속하고 빠르게 대응할 수 있는 체계가 마련되어야 합니다.
언뜻 듣기에는 뻔하고 당연한 내용들일 수 있습니다. 하지만 잊고 지낸다면 현실에서 반영되기 어려운 윤리적 원칙이기도 하고요. 실제로, 인공지능이 차별을 내포하거나 사고를 일으킨 사례도 적지 않게 찾아볼 수 있습니다.
가장 큰 국가 영향력을 가지고 있고 제일의 인공지능 산업 국가인 미국이 발표했다는 점을 고려한다면 국내의 인공지능 / IT 기업에서도 주의 깊게 살펴볼 필요가 있습니다. 물론, 무작정 따르기보다는 국내 환경에 맞게 해석하고 수정과 보완이 필요할 것입니다. 또 문서에서 말한 것처럼, 도메인의 특성에 따를 필요도 있고요.
이번 권리 장전은 자동화 시스템이 보편화되면서 초래할 수 있는 개인 소외와 권리의 침해 또는 축소에 대한 보호를 명문화했다는 데에서 의의를 갖습니다. 국내에서도 디지털 트랜스포메이션 움직임이 일어나면서, 점차 AI 자동화시스템이 보편화되기 있는 만큼, 다시 한번 윤리 의식을 일깨우는 계기가 되기를 바랍니다.

 Weekly AI ArXiv

AlphaTensor

새로운 수학 알고리즘을 찾는 딥러닝 기술이 무려 ‘Nature’에 공개되었습니다. 딥 마인드가 만든 알고리즘은 우주의 원자보다도 많은 경우의 수 속에서 최적의 경우의 수를 찾는 과정을 소개하고 있는데요, 이로써 기존에 알려진 것보다 행렬 연산을 더욱 빠르게 하는 방법을 찾아냈다고 합니다.

CircularNet

기후 변화와 더불어 환경 문제의 중요성이 점차 부각되고 있습니다. 구글에서는 Object Detection 분야의 모델 중 하나인 Mask R-CNN을 활용하여 재활용 가능한 쓰레기를 빠르게 선별하는 모델을 개발했습니다. 앞으로 Robotics 분야와 결합된다면 더욱 효율적으로 재활용 쓰레기 분류 작업을 할 수 있을 것으로 보입니다.

새로운 소식

AI가 그린 그림, 저작권 인정 받다

텍스트를 입력하면 그림을 그려주는 Midjourney 모델을 활용해서 만들어낸 만화가 저작권을 인정 받았습니다. 예술성을 인정 받은 다른 AI 기술들도 저작권을 인정 받을 수 있을까요?

텍스트를 이미지로? 이제는 영상으로! Meta가 만든 Make-A-Video

텍스트를 이미지로 변환하는 Text-to-Image 모델이 주목받은 것도 얼마 되지 않은 것 같은데, 벌써 Text-to-Video 모델이 속속들이 등장하고 있습니다. 이번에 Meta가 만든 Make-A-Video 모델을 소개합니다.

전쟁에 투입된 AI… 만약 오작동 된다면?

AI가 발달하면서 군사적 목적으로 활용하는 사례도 늘고 있습니다. 그리고 인공지능으로 사격을 운용하는 드론까지 등장했는데요, 만약 이 드론이 오작동하게 된다면 어떻게 될까요?

자연어 처리계 거장이 되다, 최예진 교수 ‘맥아더 펠로십’ 수상

워싱턴 대학의 최예진 교수가 천재들의 상이라 불리는 ‘맥아더 펠로십’을 수상했습니다. 최예진 교수는 자연어 처리 분야에서 뛰어난 업적들을 남기고 있는데요, 최예진 교수님의 논문은 여기 링크에서 확인해보실 수 있습니다.

카카오가 공개한 KoGPT 오픈 API

카카오브레인 팀이 개발한 한국어 GPT, KoGPT가 오픈 API로 공개되었습니다. GPT는 입력된 단어로 자연스러운 문장을 만들어 내는 자연어 생성에 특화된 모델입니다. KoGPT가 공개됨으로써 창의적인 결과물들이 기대됩니다!
문의사항 manager@deepdaiv.com