본문 바로가기

기타 디지털 소식

AI ethics - 인공지능 윤리 교육과 윤리 학습

반응형

소요에서 관련 내용 확인하기

AI에 관련된 윤리 교육 및 학습 문제는 계속해서 언급되고 있습니다. 개발자, 엔지니어, 기업 CEO 등 사실상 기술과 관련된 모든 사람들은 제대로 된 윤리 개념을 갖추기를 요구받고 있죠. 하지만 우리는 너무 개념 자체에만 치중하고 있지는 않은가 돌아볼 필요가 있습니다. 개발자, 엔지니어, 기업 CEO 등 많은 전문가들이 AI에 윤리적 개념을 실질적으로 적용하지 않은 채, 오직 개념만을 가지고 왈가왈부하고 있을지도 모른다는 뜻입니다. 이번에 소개할 글 역시 AI 윤리 교육의 진정한 문제점을 언급하며 현재 상황을 (슬프게도) 비관적으로 바라보고 있습니다.

 


 

저는 여러 기관의 조직원들을 상대로 AI 윤리에 대해 학습하고, 이야기하고, 글을 쓰는 교육을 3년 동안 진행했습니다. 각 기관은 해당 교육 과정을 통해 조직원들이 윤리 문제의 근본적 요소와 해결 방법을 잘 이해하게 되었다고 말합니다. 하지만 아쉽게도 그들은 이전과 달라진 점이 없어 보이며, 그 원인으로 세 가지 요인을 살펴봤습니다.

첫 번째, 이 작업을 수행하는 방법에 대한 실용적 접근보다는 윤리 주제 자체를 과도하게 강조합니다. 실질적인 지침이 부족한 "원칙"을 계속 새롭게, 또 많이 만들면 교육 과정만 복잡해질 뿐입니다.

두 번째, 교육을 본격적으로 시작하기 전, 추론 단계에서 바로 결과를 다루는 것보다 함정을 유발하는 어려운 윤리 문제를 식별하도록 가르치는 것이 더 효과적입니다. "윤리학"을 가르치는 것은 거의 도움이 되지 않습니다. 차라리 "윤리학"이라는 단어를 모두 삭제하는 것이 낫습니다.

세 번째, 윤리적 개념을 제대로 적용하는 것과 더 빨리 일하고 원칙은 무시해도 된다는 조직의 압박 사이의 갈등은 불가피합니다. 이때 조직의 압박에 저항할 수 있는 인내심을 가진 사람들이 필요하지만 기관 내 이와 같은 사람들이 부족한 상황입니다.

윤리 교육 문제의 일부는 윤리라는 용어의 사용과 관련 있습니다. 윤리란 개념은 대부분의 사람들이 이해하기에 너무 추상적이고 어렵습니다. 마치 소크라테스 같은 철학자나 교회 같은 종교 단체가 하는 말에 귀를 기울여야 할 것 같습니다. 일부 집단은 나름 괜찮은 시도를 했습니다.  <인공지능과 법적 책임>이라는 아티클에서 저자 John Kingston은 "AI가 마침내 누군가를 죽이면 누가 책임을 지게 될까요?"라는 현실적인 질문을 던졌습니다. 이것은 민사 또는 형사 책임의 문제이며, 반드시 정부 사법 시스템에 의해 해결되어야 할 문제이죠.

한 엔지니어가 방사성 폐기물 저장을 위한 AI 모델을 구축하는 임무를 담당할 때, 얼마나 광범위한 윤리적 검토가 필요할까요? 저는 매번 기업 AI 엔지니어들에게 그들의 모델이 가진 어떠한 윤리적 문제(편견, 프라이버시 등)도 완벽히 해결할 수 없음을 설명합니다. 그들은 개발된 모델이 어떤 영향을 끼치게 될 것인지 멀리 내다볼 필요가 있습니다. 물론, 엔지니어 역시 원칙에 따라 자신의 윤리적 책임을 잘 이해하고 있으나, 더 큰 그림을 보지 못하는 경우가 자주 발생합니다.

AI의 모든 작업이 영리회사에서 이루어지는 것은 아닙니다. 먼저, 누가 AI 애플리케이션을 개발하는지 생각해봐야 합니다. 기술 공급 업체들은 개발 주체는 기업이라고, 이곳에서 대부분의 작업이 이루어진다고 말할 것입니다. 하지만 국방, 정보, NGO, 그리고 우리가 알지 못하는 많은 분야에서도 AI가 개발되고 있습니다. 이것들 모두 윤리 문제를 가지고 있으며, 이는 현재 넓게 분산되어 있고 앞으로 계속 확산될 것입니다.

예를 들어보겠습니다. 구글의 경우 AI 개발 작업은 매우 이론적이며 사람에게 미치는 영향도 적을 수 있습니다. 구글의 텐서플로우(TensorFlow)는 고객에게 더 많은 신발을 판매하려는 AI 애플리케이션이 아닌 머신러닝 플랫폼이죠. 마이크로소프트는 프라이버시를 남용하지 않고 얼굴 인식 기술을 사용할 방법을 찾기 위해 노력하고 있습니다. 여기서 윤리적 요구 사항은 누구도 시스템을 해킹하여 보안 작업을 방해하지 않도록 하는 것입니다. 반면, 어떤 단체는 사람들을 죽이기 위해 AI 기술을 사용해 엄청난 파괴력을 지닌 미사일을 만들지도 모릅니다. 또 지난 2008~2009년에는 보호 계층을 차별하지 않는 윤리를 지녀야 하는 대출 기관의 압류로 인해 새로운 보호 계층 수백만 명이 생겨났죠.

치안 유지 분야에서 AI의 폭발적인 사용이 당연시 여겨지는 것은 무서운 일입니다. 이에 맞는 적절한 윤리가 적용되었나요? 범죄 예측 및 치안 유지 알고리즘이 인종차별적이라는 사실은 널리 알려져 있습니다. 동시에 범죄를 감소시킨다는 주장 역시 널리 알려져 있죠. 하지만 현재 범죄 예측 및 치안 유지 작업은 체계적인 실증적 연구보다는 설득력 있는 주장과 일화적 증거에 기반하고 있습니다. 인종차별 알고리즘은 언젠가 고칠 수 있겠지만, 그때까지 얼마나 많은 무고한 사람들이 피해를 받아야 할까요? 마찬가지로 근로 빈곤층은 낮은 FICO(Fair of Corporation, 신용평가 서비스를 제공하는 회사가 측정하는 신용도) 점수와 실제 사례 사이의 명확한 상관관계 때문에 본인은 직접적인 해당 사항이 없음에도 자동차 보험 방면에서 부당한 대우를 받습니다. 심지어 보통 사람들이 지불하는 금액의 두 배 또는 세 배에 해당하는 보험금을 부담할 때도 있습니다. 참고로 가난한 사람들은 단순히 가난해서 FICO 점수가 낮은 것이지, 사회에 위협을 가하기 때문에 점수가 낮은 것이 아닙니다.

예측 능력을 지닌 치안 유지 작업은 훌륭하지만, 자동차 보험도 감당하지 못하는 사람들이 많다면 평범한 작업이 훨씬 더 긍정적인 영향을 가져올 수 있습니다. 특히, 모든 주에서 의무 사항인 자동차 보험이 근로 빈곤층에게 역전세로 작용해 주로 부유한 개인 상해 변호사의 월급을 높여주는 상황에서는 말이죠. 운전을 할 수 없다면 아이들을 마그넷 스쿨(인종이나 통학 구역에 관계없이 다닐 수 있는 뛰어난 교육 과정을 갖춘 학교)에 데려다주거나, 거리가 먼 회사로 출근하거나, 합리적인 가격의 대형마트에 가거나 하는 것들이 불가능합니다. 가난하다고 해서 신용 불량자가 되는 것이 아닙니다. 저당도 없고, 신용 카드도 없고, 기존의 자동차 융자도 없는 와중에 임대료와 이자율은 계속 높아졌기 때문에 신용 불량자가 되고 가난의 연속이 시작된 것입니다.

사람을 대상으로 AI가 사용된다면 이를 사회적 상황(Social Context)이라고 부릅니다. AI는 모든 사람과 개인적인 상호작용이 발생하므로 윤리적 관행이 매우 중요합니다. 빅데이터와 데이터 사이언스 이전에는 연구자들은 간단한 추론을 통해 사람들을 몇몇 카테고리로 분류했습니다. 하지만 현재 분류 작업은 사건 하나하나에 대해 초당(per second) 매우 많은 추론을 거치기 때문에 의도치 않게 일부 사람들에게 피해를 줄 수도 있는 것입니다.(예: 범죄 가능성이 높은 사람으로 백인보다 흑인을 지목) 

또 다른 중요한 점은 잘못된 모델과 추론을 생성하고, 이를 기반으로 이전보다 훨씬 더 거대한 규모의 데이터를 입력할 수 있는 능력이 생겼다는 것입니다. 결국 부정적인 영향을 끼칠 가능성이 있는 결과들을 모두 출력하고 이를 막 뒤섞어버리게 됩니다.

이는 정제된 데이터 "작업 라인"에서 제대로 조사되지 않은 수많은 외부의 비전통적인 데이터로 데이터 소스가 이동함에 따라 악화됩니다. "윤리"와 관련된 용어를 사용할 때, 윤리적 문제의 소스, 즉 원인과 해결 방법을 이해하는 것이 우선순위이며, 세부적인 사항에 얽매이지 않도록 해야 합니다. 윤리적인 AI를 원한다고 해서 조직원들이 수업을 듣고 바로 윤리 문제를 해결하길 바라는 것은 무리입니다. 대신 규칙을 무시하라는 압박을 견딜 수 있는 용기를 가진 사람들, 이런 덕목을 가진 사람들로 그룹을 구성해야 합니다.

덕목에 집중하기 바랍니다. 고대 그리스인들은 이것을 사추덕(Cardinal Virtues)이라고 불렀습니다. 바로 절제, 용기, 정의 그리고 지혜를 가리키는 것이죠. 

하지만 윤리 원칙과 덕목 체크리스트로는 여전히 충분하지 않습니다. 어떤 작업을 발전시키기 위해 윤리 원칙 자체에 초점을 맞추면 기대했던 결과가 나오지 않습니다. 또 상황에 따른 특정 행동은 개인의 덕목과 성격을 바탕으로 결정됩니다. 그렇다고 일부 덕목과 주변 상황을 잘 판단하는 센스를 갖춘 인지심리학자 같은 사람이 필요한 것이 아닙니다. 본질적으로, 조직 내에서 사람들은 "시키는 대로 하거나" 자신의 가치에 대해 확고하게 결정해야 하는 위치에 놓이게 됩니다. 결국 윤리 원칙과 덕목이 갖추어졌다 하더라도 실제 상황에서 어떻게 발휘되는지 살펴봐야 하는 것이죠. 

윤리 검토위원회

저는 기관의 성격상 윤리 검토위원회 운영이 어려울 것을 발견하고 워크샵에서 해당 주제를 거의 다 삭제했습니다.

1. 기관은 윤리 검토위원회를 확장하려고 하지 않습니다. 조직 내 다양한 그룹들이 모두 AI 기술 개발에만 열심인데, 윤리 검토위원회가 어떻게 유지될 수 있을까요?

2. 기관은 관료적인 경향이 있고 명확한 지침도 없이 작업을 느리게 진행하곤 합니다.

3. 윤리 관련 문제를 실제 해결하려 하지 않고 단지 말로만 할 뿐입니다.

실제 효과가 있는 전문가 집단

엔지니어와 같은 일부 전문가 집단은 윤리 교육이 비교적 효과적일 수 있습니다. 개인적으로 친숙한 전문가 집단은 미국 보험 계리사 협회(Society of Actuaries, SOA)입니다. 이 집단은 실제 효과가 있었습니다. 

제가 미국 보험 계리사 협회 교육을 담당했을 때, 첫 번째 시험은 미적분학 3학기와 선형대수학 1학기를 다루었습니다. 이는 그들에게 쉬운 시험이죠. 하지만 그들이 음주운전을 하면 관련 사실이 신문에 실리고 힘들게 고생하여 얻은 자격 증명 역시 잃게 됩니다. 참고로 모든 보험 계리사 시험을 통과하는 데는 평균 6~10년이 걸리죠. 따라서 전문성, 윤리 및 행동 강령은 모두 반드시 평생 해야하는 필수 교육인 것입니다.

Gisele Waters 박사는 트위터에서 다음과 같이 말했습니다.

AI를 맞이하는 것은 단순 기술 문제가 아니다. 그것은 사회 기술적이며, 사회적 상황과 너무나 관련이 많은 문제다. 엔지니어가 다른 사람이 사용할 기술을 설계할 때, 해당 기술이 사회적 상황에서 사용될 모습이 중요하다. 엔지니어는 무언가를 만들어낸다. 이때 어떻게 그리고 왜 그것을 만드는지가 중요하다. 이 사실은 엔지니어뿐만 아니라 더 많은 사람들이 알고 있어야 한다. 내 연구를 통해 많은 박사들이 본인의 작업에 미칠 AI의 영향력을 이해하는 데 도움을 얻기를 바란다. AI를 직접 사용할 계획이 없더라도, 미래를 준비해야 한다. 다른 사람이 AI를 당신의 작품에 적용할 경우를 대비해야 하니까.

개인적 견해

선박의 발명은 다른 관점에서 보면 난파선 구조와 관련된 윤리의 탄생이라 할 수 있습니다. 신뢰할 수 있는 AI는 윤리 관련 성명서 이상의 것을 필요로 합니다. 이는 훈련과 모니터링이 필요한 복잡한 주제이며 이를 제대로 준비하면 미래의 큰 문제를 피할 수 있습니다. 윤리에 대한 얕은 지식을 보유한 일부 전문가는 윤리 관련 자료만 제공하지, AI 작업에 적용할 때 필요한 지침은 충분히 제공하지 못합니다. 그 이유는 일반적으로 AI 애플리케이션 개발 경험이 없기 때문이죠. 현재 AI 윤리 분야는 과도하게 많은 이론과 충분하지 않은 실습으로 채워져 사실상 발전이 멈춘 상태입니다.

참고 원문: https://diginomica.com/ai-ethics-why-teaching-ethics-and-ethics-training-problematic

728x90
반응형