AI 윤리 개요

1. AI 윤리란?

1.1 AI 윤리의 개념

  • 인공지능 기술의 개발, 배포, 활용 과정에서 발생하는 윤리적 문제들을 다루고,
  • 인간의 가치와 존엄성을 보호하며 사회에 긍정적인 영향을 미치도록
  • AI 시스템을 설계하고 사용하는 데 필요한 원칙과 지침을 탐구하는 학문 분야

1.2 AI 윤리의 핵심 요소

  • 책임성 (Responsibility)
    • AI 시스템의 설계, 개발, 운영 과정에서 발생하는 결과에 대한 책임 소재를 명확히 하고,
    • 오류나 예상치 못한 문제 발생 시 책임 주체를 규명하는 것
    • 예시
      • AI 기술이 적용된 자율주행 자동차가 자율 운행 중 사고를 일으켰다. 사고의 책임은 누가 져야 할까?
        • 자율주행 자동차의 운전자?
        • 자율주행 자동차를 생산한 자동차 업체?
        • 자율주행 자동차를 검증, 인증한 검사 업체?
        • 자율주행 프로그램을 개발한 소프트웨어 개발 업체?
        • 자율주행 프로그램을 개발한 개발자?
      • AI 기술을 이용하여 개발된 AI 작가가 소설을 썼다. 그런데 AI가 쓴 소설이 저작권 침해로 고소를 당했다.
        • AI가 쓴 소설은 저작권 침해로 인정받을 수 있는가?
        • 책임은 누가 져야 하고 보상은 누가 해야 하는가?
      • AI 기자가 입력된 데이터를 기반으로 기사를 작성하였다. 그런데 가짜뉴스라며 비난을 받게 되었다.
        • 데이터를 기반으로 AI가 작성한 기사는 가짜뉴스인가?
      • AI 시스템이 사용자 편의를 제공하기 위하여 사용자의 얼굴을 학습하고 여러 서비스에 활용하였다.
        • 이것은 초상권 침해에 해당하는가?
      • AI 법관이 재판 결과 피고인에게 유죄를 판결하였다. 시간이 흐르고 해당 피고인의 무죄가 확인되었다.
        • 이런 경우, 책임은 누가 져야 하며 보상은 누가 해야 하는가?
      • AI 서비스를 위한 챗봇 시스템이 개발되어 서비스를 시작하였다. 그런데 챗봇을 학습시킬 때 AI 시스템이 스스로 인터넷에서 다양한 대화 데이터 및 콘텐츠를 수집하여 사용하였다.
        • 이 경우는 개인정보 침해에 해당하는가?
      • AI의 음성합성 기술을 이용한 보이스피싱 사건이 증가하고 있다.
        • 보이스피싱 조직이 주로 사용하는 음성합성 시스템해당 기술을 개발한 개발자에게 책임을 물어야 하는가?


  • 투명성 (Transparency) 및 설명가능성 (Explainability)
    • AI 시스템의 작동 방식과 의사 결정 과정을 이해할 수 있도록 투명하게 공개하고,
    • 특정 결정이 내려진 이유를 설명할 수 있어야 함
    • 이는 신뢰를 구축하고 잠재적인 편향성을 감지하는 데 중요
    • 예시
      • AI가 인류를 멸망시킨다.. 라는 등의 문제 제기는 AI의 내부에서 어떤 일이 일어나는지 알 수 없기 때문
        • 어떤 일이 일어나고 있는지 명확하게 알 수 없으므로 그로 인한 공포심이 갖은 추측과 음모론을 불러일으킴
        • AI의 내부 작동 과정이 투명하고, AI의 결정 및 판단이 설명가능할 정도로 명확하다면 이런 문제는 최소화될 것
        • 실제로 현재의 AI 기술 및 모델 구조로는 이런 일의 발생은 불가능에 극히 가까움


  • 공정성 (Fairness) 및 비차별성 (Non-discrimination)
    • AI 시스템이 특정 집단에 불리하게 작용하거나 차별적인 결과를 초래하지 않도록 설계하고 평가해야 함
    • 데이터 편향성, 알고리즘 설계 오류 등이 차별을 야기할 수 있음
    • 데이터 품질 기준의 중요성이 강조됨
    데이터의 특성개요
    다양성 다양한 데이터를 확보하지 못함으로 인해 발생할 수 있는 역기능 문제의 방지를 위하여
    편향되지 않은 다양한 데이터가 제공되어야 함
    정확성 의료 진료에 이용되는 전자의무기록 데이터, 기업의 매출 데이터 등의 경우,
    정확한 데이터가 수집, 제공되어야 함
    적합성 주택담보대출 심사의 경우, 중산층과 빈곤층 데이터를 학습하게 함으로써
    중산층 주택가격 인상이나 빈곤층 대출규제와 같은 문제가 발생하지 않도록
    문제와 목표에 적합한 데이터가 제공되어야 함
    충분성 얼굴인식 AI를 개발하고자 할 경우 최소 수백만 장 이상의 사진이 필요한데,
    데이터가 충분히 확보되지 못해서 얼굴을 제대로 인식할 수 없는 문제가 발생하지 않도록
    충분한 양의 데이터가 제공되어야 함
    투명성 데이터의 중요성이 증가함에 따라 데이터를 매매하는 시장과 데이터 매매업자의 등장으로
    데이터의 출처를 위장하는 문제가 발생하지 않도록 데이터의 출처가 투명해야 함
    • 예시
      • 얼굴 인식 기술에서 발생한 문제
        • 업로드된 사진에 대해 자동으로 레이블을 태깅하는 기능을 가진 사물인식 AI → 미국의 한 흑인 남성과 그 여자친구를 ‘고릴라’로 분류
        • 여러 사람이 이야기하는 도중에 말하는 사람에게 카메라 초점을 맞추는 AI → 흑인 여성이 이야기 할 때, 흑인 여성을 사람으로 인식하지 않고 카메라를 비추지 않음
        • 미국의 얼굴인식 AI → 상원 및 하원 의원 28명을 범죄자로 인식
      • AI 채팅 서비스
        • 마이크로소프트 AI 챗봇 ‘테이’
          • 백인우월주의자, 여성 및 무슬림 혐오자들이 챗봇 AI가 차별발언을 하도록 훈련시킬 것을 모의하여 고의적으로 욕설, 인종차별, 성차별 등 극우성향의 대화를 계속 입력함으로써 AI의 훈련 결과를 왜곡시킴
          • 출시 당일, 여성차별 및 혐오 발언, 홀로코스트 조작설 등의 발언을 함
      • 채용 지원 시스템
        • 직원 채용 AI가 이력서를 체크할 때
          • ‘여성 체스 동아리’와 같은 여성이라는 단어가 들어가는 이력서는 감점시키도록 학습시켜 차별을 조장시킨 사례
          • 여자대학을 졸업한 지원자는 감점, 남자 기술자들이 이력서에 자주 쓰는 표현이 발견되면 가산점을 주는 식으로 차별 행위
      • 추천 시스템
        • 미국인의 데이터를 이용하여 학습한 의료 AI가 제시하는 진단 및 치료법
          • 아시아 국가에서는 과다 약물 투여 등으로 인한 사망사고 유발 가능성 발견
          • 평균적으로 미국인과 아시아인의 체격 차이와 같은 데이터의 차이로 인해 진단법과 치료법이 달라지게 되는 사실이 반영되지 않음
          • 외부적인 고의성 조작이 없더라도 AI로 인한 차별 및 위험성이 증가하는 경우도 있을 수 있음
      • 예측 시스템
        • 미국 법원의 재범률 예측과 FBI의 감시 대상 인물 선정 AI
          • 재범하지 않을 것으로 예측되었으나 재범을 하거나, 그 반대의 경우 발생
          • 주로 백인과 흑인의 예측 결과가 편향된 사례가 많이 발생
        • 유료 댓글 기능의 AI
          • 일정한 금액을 지불하면 해당 댓글이 진행 중인 방송의 채팅창 상단에 고정되어 수익 창출과 연결되는 차별 조장
          • 동일한 방식으로 헤이스트 스피치(특정 집단이나 개인에 대한 차별적 혐오발언)를 조장
      • 의료 시스템
        • 최신 기기로 촬영된 고화질의 13만장의 망막 이미지로 학습한 의료 AI
          • 의료 기술이 낙후된 국가에서 도입, 활용하려다 실패
          • 해당 국가에서 촬영된 망막 화상 이미지는 구형 장비에서 촬영된 저화질 이미지여서 해당 AI에서 사용할 수 없었음
      • 대출 심사 지원 시스템
        • 주택담보 대출 심사 업무를 담당하는 AI
          • 중산층 주택가와 빈곤층 주택가에 대한 데이터를 학습
          • 중산층 주택의 대출금액은 높고 변제율이 높기 때문에
          • 중산층 주택은 계속적으로 주택 가격이 상승하고, 중산층 주민의 변제 능력도 계속 상승
          • 빈곤층 주택은 계속적으로 주택 가격이 하락하고, 빈곤층 주민의 변제 능력도 계속 하락
          • 부익부 빈익빈 현상을 AI 시스템이 조장하는 결과가 발생
  • 개인 정보 보호 (Privacy Protection)
    • AI 시스템 개발 및 활용 과정에서 개인 정보를 안전하게 보호해야 함
    • 데이터 오용이나 무단 접근을 방지해야 함
    • 데이터 최소화, 익명화, 암호화 등의 기술적·관리적 조치가 필요함
  • 인간 존엄성 및 자율성 존중 (Respect for Human Dignity and Autonomy)
    • AI 시스템은 인간의 존엄성과 자율성을 침해하지 않도록 개발 및 사용되어야 함
    • 인간의 의사 결정을 보조하고 강화하는 방향으로 활용되어야 하며,
    • 인간을 대체하거나 통제하는 방식으로 사용되어서는 안됨
  • 사회적 영향 (Social Impact)
    • AI 기술이 사회 전반에 미치는 영향을 고려하고,
    • 긍정적인 효과를 극대화하고 부정적인 영향을 최소화하기 위한 노력이 필요함
    • 일자리 감소, 사회적 불평등 심화 등의 문제에 대한 고민이 요구됨
  • 안전성 (Safety) 및 신뢰성 (Reliability)
    • AI 시스템은 예측 가능하고 안전하게 작동해야 하며,
    • 오작동이나 악의적인 공격으로부터 보호되어야 함
    • 특히 안전이 중요한 분야(자율주행, 의료 등)에서는 높은 수준의 신뢰성이 요구됨

1.3 AI 윤리의 중요성

  • AI 기술은 사회의 다양한 영역에서 혁신적인 변화를 가져오고 있지만, 동시에 새로운 윤리적 딜레마와 사회적 문제들을 야기하고 있음
    • 예를 들어,
      • 일자리 자동화: AI 기반 자동화 시스템 도입으로 인한 대규모 실업 가능성
      • 감시 사회: 얼굴 인식 기술 등 AI 기반 감시 시스템의 확산으로 인한 사생활 침해 및 자유 침해 우려
      • 가짜 뉴스 및 허위 정보 확산: AI 기반 딥페이크 기술 등을 이용한 허위 정보 생성 및 유포 문제
      • 알고리즘 편향: 학습 데이터의 편향성으로 인해 특정 집단에 불리한 의사 결정을 내리는 AI 시스템
      • 자율 무기: 인간의 개입 없이 스스로 판단하고 공격 대상을 결정하는 자율 무기 개발의 윤리적 문제

  • 이러한 문제들에 대한 심층적인 논의와 해결책 모색이 AI 윤리의 중요한 과제
  • AI 윤리는 단순히 기술 개발자나 정책 결정자뿐만 아니라, AI 기술을 사용하는 모든 개인과 사회 구성원들이 함께 고민하고 참여해야 할 중요한 주제

  • 현재 다양한 국제기구, 정부, 기업, 학계 등에서 AI 윤리 기준과 가이드라인을 마련하기 위한 노력이 활발하게 진행되고 있음
  • 이는 AI 기술이 인간 중심의 가치를 지향하고 사회에 긍정적으로 기여할 수 있도록 방향을 설정하는 데 중요한 역할을 담당

  • 궁극적으로 AI 윤리는 기술 발전과 인간의 가치 및 사회적 책임 사이의 균형을 추구하며, 지속 가능한 AI 생태계의 구축을 목표로 함

2. AI 윤리와 전통 윤리

2.1 전통 윤리 개요

  • 개념
    • 특정 사회나 문화권에서 오랫동안 이어져 내려오면서 그 구성원들의 행동과 가치관의 기반을 이루는 도덕적 규범, 원칙, 신념의 체계
    • 단순히 개인의 양심이나 철학적 사유에 그치지 않고, 공동체의 역사, 종교, 관습, 사회 제도 등을 통해 형성되고 공유되며 세대를 거쳐 전승됨
  • 특징
    • 역사성과 전통성
      • 오랜 시간 동안 사회 구성원들의 경험과 지혜가 축적되어 형성됨
      • 과거로부터 현재까지 지속적으로 전승되고 유지되는 규범
    • 공동체 중심성
      • 개인보다는 가족, 씨족, 마을, 국가 등 공동체의 유지와 번영을 중시하는 경향이 강함
      • 개인의 권리보다는 공동체의 의무와 책임을 강조하는 경우가 많음
    • 경험적 지혜
      • 오랜 경험과 관습 속에서 옳다고 여겨져 온 행위 방식이나 가치 판단 기준을 포함함
      • 이론적인 추론보다는 실제 삶의 지혜를 담고 있는 경우가 많음
    • 사회적 합의
      • 사회 구성원들의 암묵적 또는 명시적인 합의를 바탕으로 형성됨
      • 사회 질서를 유지하고 갈등을 해결하는 기능을 수행함
    • 도덕 교육 및 사회화
      • 가정, 학교, 종교 기관, 사회적 관습 등을 통해 개인에게 내면화됨
      • 사회 구성원으로서의 역할을 수행하도록 사회화하는 중요한 역할을 담당함
    • 문화적 특수성
      • 각 사회나 문화권의 고유한 역사적, 지리적, 종교적 배경에 따라 다양한 형태와 내용을 가짐
      • 따라서 보편적인 윤리 원칙과 함께 특정 문화권에서 강조되는 고유한 가치와 규범을 포함함
  • 주요 내용
    • 전통 윤리의 내용은 매우 다양하지만, 일반적으로 다음과 같은 핵심 가치와 규범을 포함함

    • 가족주의
      • 혈연관계를 중시하고 가족 구성원 간의 의무와 책임을 강조
      • 효(孝), 우애(友愛) 등이 중요한 덕목으로 여김
    • 집단주의
      • 개인의 이익보다 집단의 이익을 우선시 함
      • 공동체의 조화와 협력을 강조
    • 예의범절
      • 사회 구성원 간의 원활한 관계 유지를 위한 예절과 규범을 중요하게 생각함
      • 연장자 존경, 겸손, 배려 등이 강조
    • 성실과 근면
      • 노동의 가치를 높이 평가
      • 성실하고 근면한 태도를 중요한 덕목으로 여김
    • 정직과 신뢰
      • 사회 구성원 간의 믿음과 약속을 중요하게 생각함
      • 정직하고 신뢰할 수 있는 태도를 강조
    • 절제와 인내
      • 개인의 욕망을 절제하고 어려움을 인내하는 태도를 미덕으로 여김
    • 정의와 공정
      • 사회적 불의에 저항하고 공정한 질서를 유지하는 것을 중요하게 생각함
      • 단, 전통 사회의 정의 개념은 현대적 의미와 차이가 있을 수 있음
  • 중요성

    • 전통 윤리는 사회 구성원들에게 공유된 가치관과 행동 규범을 제공함으로써
      • 사회 질서를 유지하고 공동체의 결속력을 강화하는 데 중요한 역할을 수행
      • 개인의 도덕적 판단과 행동의 기준을 제시하고
      • 세대 간의 문화적 연속성을 유지하는 데 기여
  • 한계

    • 전통 윤리는
      • 시대 변화에 따라 그 의미가 퇴색하거나
      • 현대 사회의 새로운 윤리적 문제들을 해결하는 데 한계를 보이기도 함
    • 따라서 현대 사회에서는
      • 전통 윤리의 긍정적인 가치를 계승하면서도
      • 새로운 시대의 요구에 부응하는 윤리적 성찰과 노력이 필요함

2.2 AI 윤리와 전통 윤리의 비교

  • 유사점:

    • 보편적 가치 지향
      • 인간의 존엄성 존중, 공정성 추구, 사회적 책임 강조 등
      • 전통 윤리가 추구해 온 보편적인 가치를 AI 윤리 또한 중요하게 다룸
    • 행위의 옳고 그름 판단 기준 제시
      • 전통 윤리가 인간의 행위에 대한 도덕적 판단 기준을 제시하듯,
      • AI 윤리 역시 AI 시스템의 설계, 개발, 활용에 대한 윤리적 기준을 제시하고자 함
    • 사회 질서 유지 및 공동선 추구
      • 개인의 조화로운 공존과 사회 전체의 이익 증진이라는 윤리의 궁극적인 목표는 AI 윤리에서도 동일하게 적용됨
  • 차이점:

    • 행위 주체의 확장
      • 전통 윤리는 주로 인간의 행위를 대상으로 함
      • AI 윤리는 인간이 만든 인공적인 시스템의 행위 및 그 영향까지 포괄함
      • AI는 자율적인 의사 결정을 내릴 수 있으며, 그 결과에 대한 책임 소재가 인간과 다를 수 있음
    • 의사 결정 과정의 불투명성
      • 전통적인 윤리적 판단은 인간의 의식, 의도, 동기 등을 고려함
      • 복잡한 AI 알고리즘의 의사 결정 과정은 인간이 완전히 이해하기 어려울 수 있음
      • 이는 AI의 행위에 대한 윤리적 평가 및 책임 할당을 복잡하게 만듦
    • 새로운 윤리적 딜레마 발생
      • AI 기술은 기존에는 존재하지 않았던 새로운 유형의 윤리적 문제들을 야기함
      • 예시
        • 자율주행차의 불가피한 사고 상황에서의 윤리적 선택
        • AI 챗봇의 혐오 발언 학습 및 확산
        • AI 창작물의 저작권 문제 등
    • 대규모 사회적 영향력
      • AI 기술은 개인뿐만 아니라 사회 전체에 걸쳐 광범위하고 심층적인 영향을 미칠 수 있음
      • 일자리 감소, 사회적 불평등 심화, 감시 사회 도래 등 거시적인 윤리적 문제에 대한 고려가 필요함
    • 데이터 기반 의사 결정
      • AI는 방대한 데이터를 기반으로 의사 결정을 내림
      • 데이터의 편향성은 AI의 판단에 그대로 반영되어 차별적인 결과를 초래할 수 있음
      • 데이터 활용 과정에서의 개인 정보 침해 문제도 중요한 윤리적 고려 사항

2.3 문제 해결을 위한 노력

  • AI 윤리와 전통 윤리의 차이점에서 발생하는 문제들을 해결하고 신뢰할 수 있는 AI 생태계를 조성하기 위해 다양한 국가적, 사회적 노력이 이루어지고 있음

2.3.1 국가적 노력

  • AI 관련 법률 및 규제 제정
    • 노력
      • EU의 AI 법안과 같이 AI 시스템의 위험도에 따라 차등화된 규제 도입
      • 특정 분야(자율주행, 의료 등)에 대한 안전 및 윤리 기준을 마련

      • 국내
        • 2024.12.26. 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 “AI 기본법”)」이 국회 본회의를 통과
        • AI 기본법은 공포 후 1년 이 경과한 날부터 시행될 예정
        • AI 기본법이 시행되면
          • AI의 개발 및 육성에 대한 지원이 확대되는 한편,
          • AI의 신뢰성 확보 및 위험 예방을 위한 다양한 규제가 도입되어
          • 관련 산업계에 중대한 영향을 미칠 것으로 예상됨
        • 출처: 법률신문 (2025.01.06) - AI 기본법 통과의 의의 및 산업계에 미칠 영향
    • 의의
      • AI 기술의 남용 및 오용을 방지하고, 안전하고 신뢰할 수 있는 AI 시스템 개발 및 활용을 위한 법적 기반 마련
      • 위험도가 높은 AI 시스템에 대한 명확한 규제는 사회적 불안감을 해소하고 책임 소재를 명확히 하는 데 기여함
  • AI 윤리 가이드라인 및 프레임워크 제시
  • AI 윤리 교육 및 인식 제고
    • 노력
      • AI 기술의 사회적 영향과 윤리적 문제에 대한 대중의 이해도를 높이기 위한 교육 프로그램 개발 및 지원, 공론화 과정 마련 등
    • 의의
      • 시민들이 AI 기술을 올바르게 이해하고 비판적으로 수용할 수 있도록 지원
      • AI 윤리 문제에 대한 사회적 관심을 높여 건강한 논의 문화 조성
  • AI 안전성 및 신뢰성 확보를 위한 연구 개발 지원
    • 노력
      • AI 시스템의 오류 및 오작동 방지, 사이버 공격 방어, 예측 가능성 및 설명 가능성 향상 등을 위한 기술 개발을 정부 차원에서 지원
    • 의의
      • 기술적 해결책 마련을 통해 AI 시스템의 안전성과 신뢰성 향상
      • 잠재적인 위험을 줄여 사회적 불안감 해소

2.3.2 사회적 노력

  • 학계 및 연구기관의 윤리 연구 및 담론 형성
    • 노력
      • 대학 및 연구기관에서 AI 윤리 관련 학문적 연구 수행
      • 다양한 이해관계자들이 참여하는 윤리 포럼, 컨퍼런스 등을 개최
      • 사회적 논의 활성화
    • 의의
      • AI 윤리 문제에 대한 깊이 있는 분석과 다양한 관점을 제시하여 사회적 합의 도출에 기여
      • 미래 사회의 AI 윤리 방향성을 설정하는 데 중요한 역할
  • 기업의 자율적인 윤리 기준 마련 및 준수 노력
    • 노력
      • 주요 AI 개발 기업들은
        • 자체적인 AI 윤리 강령 및 행동 기준 마련
        • 이를 개발 및 서비스 운영 과정에 적용하기 위해 노력 중
    • 의의
      • 기업 스스로 윤리적 책임을 인식
      • 사회적 가치를 고려한 AI 시스템 개발 및 운영을 통해 신뢰 구축
      • 지속 가능한 성장 도모
  • 시민 사회의 감시 및 비판 활동
    • 노력
      • 시민 단체 및 일반 시민들은
      • AI 시스템의 윤리적 문제 발생 여부 감시
      • 부적절한 사례에 대해 비판적인 의견을 제시
      • 사회적 경각심 고취에 기여
    • 의의
      • AI 시스템 개발 및 활용 과정에서 간과될 수 있는 윤리적 문제를 지적
      • 사회적 약자의 권익 보호 및 공정성 확보에 기여
  • 전문가 단체의 가이드라인 및 표준 제시
    • 노력
      • AI 관련 전문가 단체들은
        • 특정 분야의 AI 시스템 개발 및 활용에 대한 윤리적 가이드라인 및 기술 표준 제시
        • 현장의 혼란 경감
        • 책임감 있는 개발 유도
    • 의의
      • 실질적인 현장 적용 가능성이 높은 구체적인 지침을 제공
      • AI 시스템의 윤리적 문제 발생 가능성 감소
      • 안전성 확보에 기여
  • 이러한 국가적, 사회적 노력들은
    • AI 기술이 인간 중심의 가치를 존중하고 사회에 긍정적인 영향을 미치도록 방향을 설정하는 데 중요한 역할을 수행
    • AI 기술의 빠른 발전 속도를 고려할 때, 이러한 노력들은 지속적으로 업데이트되고 강화되어야 함
    • 다양한 이해관계자들의 적극적인 참여와 협력을 통해 실효성 있는 AI 윤리 체계를 구축하는 것이 중요함

© 2020. AiDALab Co. All rights reserved.

Powered by Hydejack v9.2.1