AI 윤리 개요
1. AI 윤리란?
- 인공지능 기술의 개발, 배포, 활용 과정에서 발생하는 윤리적 문제들을 다루고,
- 인간의 가치와 존엄성을 보호하며 사회에 긍정적인 영향을 미치도록
- AI 시스템을 설계하고 사용하는 데 필요한 원칙과 지침을 탐구하는 학문 분야
2. AI 윤리의 핵심 개념
- 책임성 (Responsibility)
- AI 시스템의 설계, 개발, 운영 과정에서 발생하는 결과에 대한 책임 소재를 명확히 하고,
- 오류나 예상치 못한 문제 발생 시 책임 주체를 규명하는 것
- 예시
- AI 기술이 적용된 자율주행 자동차가 자율 운행 중 사고를 일으켰다. 사고의 책임은 누가 져야 할까?
- 자율주행 자동차의 운전자?
- 자율주행 자동차를 생산한 자동차 업체?
- 자율주행 자동차를 검증, 인증한 검사 업체?
- 자율주행 프로그램을 개발한 소프트웨어 개발 업체?
- 자율주행 프로그램을 개발한 개발자?
- AI 기술을 이용하여 개발된 AI 작가가 소설을 썼다. 그런데 AI가 쓴 소설이 저작권 침해로 고소를 당했다.
- AI가 쓴 소설은 저작권 침해로 인정받을 수 있는가?
- 책임은 누가 져야 하고 보상은 누가 해야 하는가?
- AI 기자가 입력된 데이터를 기반으로 기사를 작성하였다. 그런데 가짜뉴스라며 비난을 받게 되었다.
- 데이터를 기반으로 AI가 작성한 기사는 가짜뉴스인가?
- AI 시스템이 사용자 편의를 제공하기 위하여 사용자의 얼굴을 학습하고 여러 서비스에 활용하였다.
- 이것은 초상권 침해에 해당하는가?
- AI 법관이 재판 결과 피고인에게 유죄를 판결하였다. 시간이 흐르고 해당 피고인의 무죄가 확인되었다.
- 이런 경우, 책임은 누가 져야 하며 보상은 누가 해야 하는가?
- AI 서비스를 위한 챗봇 시스템이 개발되어 서비스를 시작하였다. 그런데 챗봇을 학습시킬 때 AI 시스템이 스스로 인터넷에서 다양한 대화 데이터 및 콘텐츠를 수집하여 사용하였다.
- 이 경우는 개인정보 침해에 해당하는가?
- AI의 음성합성 기술을 이용한 보이스피싱 사건이 증가하고 있다.
- 보이스피싱 조직이 주로 사용하는 음성합성 시스템해당 기술을 개발한 개발자에게 책임을 물어야 하는가?
- AI 기술이 적용된 자율주행 자동차가 자율 운행 중 사고를 일으켰다. 사고의 책임은 누가 져야 할까?
- 투명성 (Transparency) 및 설명가능성 (Explainability)
- AI 시스템의 작동 방식과 의사 결정 과정을 이해할 수 있도록 투명하게 공개하고,
- 특정 결정이 내려진 이유를 설명할 수 있어야 함
- 이는 신뢰를 구축하고 잠재적인 편향성을 감지하는 데 중요
- 예시
- AI가 인류를 멸망시킨다.. 라는 등의 문제 제기는 AI의 내부에서 어떤 일이 일어나는지 알 수 없기 때문
- 어떤 일이 일어나고 있는지 명확하게 알 수 없으므로 그로 인한 공포심이 갖은 추측과 음모론을 불러일으킴
- AI의 내부 작동 과정이 투명하고, AI의 결정 및 판단이 설명가능할 정도로 명확하다면 이런 문제는 최소화될 것
- 실제로 현재의 AI 기술 및 모델 구조로는 이런 일의 발생은 불가능에 극히 가까움
- AI가 인류를 멸망시킨다.. 라는 등의 문제 제기는 AI의 내부에서 어떤 일이 일어나는지 알 수 없기 때문
- 공정성 (Fairness) 및 비차별성 (Non-discrimination)
- AI 시스템이 특정 집단에 불리하게 작용하거나 차별적인 결과를 초래하지 않도록 설계하고 평가해야 함
- 데이터 편향성, 알고리즘 설계 오류 등이 차별을 야기할 수 있음
- 예시
- 얼굴 인식 기술에서 발생한 문제
- 업로드된 사진에 대해 자동으로 레이블을 태깅하는 기능을 가진 사물인식 AI → 미국의 한 흑인 남성과 그 여자친구를 ‘고릴라’로 분류
- 여러 사람이 이야기하는 도중에 말하는 사람에게 카메라 초점을 맞추는 AI → 흑인 여성이 이야기 할 때, 흑인 여성을 사람으로 인식하지 않고 카메라를 비추지 않음
- 미국의 얼굴인식 AI → 상원 및 하원 의원 28명을 범죄자로 인식
- AI 채팅 서비스
- 마이크로소프트 AI 챗봇 ‘테이’
- 백인우월주의자, 여성 및 무슬림 혐오자들이 챗봇 AI가 차별발언을 하도록 훈련시킬 것을 모의하여 고의적으로 욕설, 인종차별, 성차별 등 극우성향의 대화를 계속 입력함으로써 AI의 훈련 결과를 왜곡시킴
- 출시 당일, 여성차별 및 혐오 발언, 홀로코스트 조작설 등의 발언을 함
- 마이크로소프트 AI 챗봇 ‘테이’
- 채용 지원 시스템
- 직원 채용 AI가 이력서를 체크할 때
- ‘여성 체스 동아리’와 같은 여성이라는 단어가 들어가는 이력서는 감점시키도록 학습시켜 차별을 조장시킨 사례
- 여자대학을 졸업한 지원자는 감점, 남자 기술자들이 이력서에 자주 쓰는 표현이 발견되면 가산점을 주는 식으로 차별 행위
- 직원 채용 AI가 이력서를 체크할 때
- 추천 시스템
- 미국인의 데이터를 이용하여 학습한 의료 AI가 제시하는 진단 및 치료법
- 아시아 국가에서는 과다 약물 투여 등으로 인한 사망사고 유발 가능성 발견
- 평균적으로 미국인과 아시아인의 체격 차이와 같은 데이터의 차이로 인해 진단법과 치료법이 달라지게 되는 사실이 반영되지 않음
- 외부적인 고의성 조작이 없더라도 AI로 인한 차별 및 위험성이 증가하는 경우도 있을 수 있음
- 미국인의 데이터를 이용하여 학습한 의료 AI가 제시하는 진단 및 치료법
- 예측 시스템
- 미국 법원의 재범률 예측과 FBI의 감시 대상 인물 선정 AI
- 재범하지 않을 것으로 예측되었으나 재범을 하거나, 그 반대의 경우 발생
- 주로 백인과 흑인의 예측 결과가 편향된 사례가 많이 발생
- 유료 댓글 기능의 AI
- 일정한 금액을 지불하면 해당 댓글이 진행 중인 방송의 채팅창 상단에 고정되어 수익 창출과 연결되는 차별 조장
- 동일한 방식으로 헤이스트 스피치(특정 집단이나 개인에 대한 차별적 혐오발언)를 조장
- 미국 법원의 재범률 예측과 FBI의 감시 대상 인물 선정 AI
- 의료 시스템
- 최신 기기로 촬영된 고화질의 13만장의 망막 이미지로 학습한 의료 AI
- 의료 기술이 낙후된 국가에서 도입, 활용하려다 실패
- 해당 국가에서 촬영된 망막 화상 이미지는 구형 장비에서 촬영된 저화질 이미지여서 해당 AI에서 사용할 수 없었음
- 최신 기기로 촬영된 고화질의 13만장의 망막 이미지로 학습한 의료 AI
- 대출 심사 지원 시스템
- 주택담보 대출 심사 업무를 담당하는 AI
- 중산층 주택가와 빈곤층 주택가에 대한 데이터를 학습
- 중산층 주택의 대출금액은 높고 변제율이 높기 때문에
- 중산층 주택은 계속적으로 주택 가격이 상승하고, 중산층 주민의 변제 능력도 계속 상승
- 빈곤층 주택은 계속적으로 주택 가격이 하락하고, 빈곤층 주민의 변제 능력도 계속 하락
- 부익부 빈익빈 현상을 AI 시스템이 조장하는 결과가 발생
- 주택담보 대출 심사 업무를 담당하는 AI
- 얼굴 인식 기술에서 발생한 문제
- 데이터 품질 기준의 중요성이 강조됨
데이터의 특성 | 개요 |
다양성 | 다양한 데이터를 확보하지 못함으로 인해 발생할 수 있는 역기능 문제의 방지를 위하여 편향되지 않은 다양한 데이터가 제공되어야 함 |
정확성 | 의료 진료에 이용되는 전자의무기록 데이터, 기업의 매출 데이터 등의 경우, 정확한 데이터가 수집, 제공되어야 함 |
적합성 | 주택담보대출 심사의 경우, 중산층과 빈곤층 데이터를 학습하게 함으로써 중산층 주택가격 인상이나 빈곤층 대출규제와 같은 문제가 발생하지 않도록 문제와 목표에 적합한 데이터가 제공되어야 함 |
충분성 | 얼굴인식 AI를 개발하고자 할 경우 최소 수백만 장 이상의 사진이 필요한데, 데이터가 충분히 확보되지 못해서 얼굴을 제대로 인식할 수 없는 문제가 발생하지 않도록 충분한 양의 데이터가 제공되어야 함 |
투명성 | 데이터의 중요성이 증가함에 따라 데이터를 매매하는 시장과 데이터 매매업자의 등장으로 데이터의 출처를 위장하는 문제가 발생하지 않도록 데이터의 출처가 투명해야 함 |
- 개인 정보 보호 (Privacy Protection)
- AI 시스템 개발 및 활용 과정에서 개인 정보를 안전하게 보호해야 함
- 데이터 오용이나 무단 접근을 방지해야 함
- 데이터 최소화, 익명화, 암호화 등의 기술적·관리적 조치가 필요함
- 인간 존엄성 및 자율성 존중 (Respect for Human Dignity and Autonomy)
- AI 시스템은 인간의 존엄성과 자율성을 침해하지 않도록 개발 및 사용되어야 함
- 인간의 의사 결정을 보조하고 강화하는 방향으로 활용되어야 하며,
- 인간을 대체하거나 통제하는 방식으로 사용되어서는 안됨
- 사회적 영향 (Social Impact)
- AI 기술이 사회 전반에 미치는 영향을 고려하고,
- 긍정적인 효과를 극대화하고 부정적인 영향을 최소화하기 위한 노력이 필요함
- 일자리 감소, 사회적 불평등 심화 등의 문제에 대한 고민이 요구됨
- 안전성 (Safety) 및 신뢰성 (Reliability)
- AI 시스템은 예측 가능하고 안전하게 작동해야 하며,
- 오작동이나 악의적인 공격으로부터 보호되어야 함
- 특히 안전이 중요한 분야(자율주행, 의료 등)에서는 높은 수준의 신뢰성이 요구됨
3. AI 윤리의 중요성
- AI 기술은 사회의 다양한 영역에서 혁신적인 변화를 가져오고 있지만, 동시에 새로운 윤리적 딜레마와 사회적 문제들을 야기하고 있음
- 예를 들어,
- 일자리 자동화: AI 기반 자동화 시스템 도입으로 인한 대규모 실업 가능성
- 감시 사회: 얼굴 인식 기술 등 AI 기반 감시 시스템의 확산으로 인한 사생활 침해 및 자유 침해 우려
- 가짜 뉴스 및 허위 정보 확산: AI 기반 딥페이크 기술 등을 이용한 허위 정보 생성 및 유포 문제
- 알고리즘 편향: 학습 데이터의 편향성으로 인해 특정 집단에 불리한 의사 결정을 내리는 AI 시스템
- 자율 무기: 인간의 개입 없이 스스로 판단하고 공격 대상을 결정하는 자율 무기 개발의 윤리적 문제
- 예를 들어,
- 이러한 문제들에 대한 심층적인 논의와 해결책 모색이 AI 윤리의 중요한 과제
AI 윤리는 단순히 기술 개발자나 정책 결정자뿐만 아니라, AI 기술을 사용하는 모든 개인과 사회 구성원들이 함께 고민하고 참여해야 할 중요한 주제
- 현재 다양한 국제기구, 정부, 기업, 학계 등에서 AI 윤리 기준과 가이드라인을 마련하기 위한 노력이 활발하게 진행되고 있음
이는 AI 기술이 인간 중심의 가치를 지향하고 사회에 긍정적으로 기여할 수 있도록 방향을 설정하는 데 중요한 역할을 담당
- 궁극적으로 AI 윤리는 기술 발전과 인간의 가치 및 사회적 책임 사이의 균형을 추구하며, 지속 가능한 AI 생태계의 구축을 목표로 함