코어소프트 인공지능 윤리 헌장

코어소프트는 인공지능(AI)이야말로 미래 사회의 핵심 동력이자, 사람과 조직의 삶을 변화시키는 중대한 기술이라고 믿습니다. 따라서 우리는 AI 기술을 개발하고 제공함에 있어, 사회적 책임과 윤리적 기준을 최우선으로 삼겠습니다. 본 윤리 헌장은 코어소프트 내부 직원, 개발자, 파트너, 고객이 함께 지켜야 할 원칙과 행동 기준을 담고 있습니다.

1. 목적 및 적용 범위

  • 1.1. 본 윤리 헌장은 코어소프트가 개발하거나 제공하는 모든 AI 관련 시스템, 알고리즘, 서비스(예: 법률 AI, 추천 시스템, 예측 분석 등)에 적용됩니다.
  • 1.2. 내부 개발자, 연구자, 운영 담당자, 협력사, 외주 개발자 등 AI 기술과 관련된 모든 주체는 이 윤리 헌장을 준수해야 합니다.
  • 1.3. 윤리 위반이 의심되는 경우에는 내부 신고 및 검토 제도를 통해 책임을 묻고 시정 조치를 취할 수 있습니다.

2. 기본 원칙

  • 2.1. 인간 중심성 (Human-Centric) 원칙은 AI는 인간의 존엄성과 자유를 존중하며 보조 수단으로 설계되어야 합니다.
  • 2.2. 공정성 (Fairness) 원칙은 인종, 성별, 연령, 장애, 사회경제적 지위 등에 따라 차별이 발생하지 않도록 설계, 검증, 모니터링해야 합니다.
  • 2.3. 투명성 (Transparency) 원칙은 주요 의사결정 구조, 입력 요인, 추론 근거 등을 설명 가능하게 설계하고, 이해 가능성을 확보해야 합니다.
  • 2.4. 책임성 (Accountability) 원칙은 결과에 대한 책임 주체를 명확히 하고, 오류나 피해가 발생할 경우 적절한 대응과 보상을 보장해야 합니다.
  • 2.5. 프라이버시 보호 (Privacy & Data Protection) 원칙은 개인정보는 최소한으로 수집·처리하며, 익명화·암호화 등 보호 조치를 엄격히 준수해야 합니다.
  • 2.6 안전성(Safety) & 신뢰성(Reliability) 원칙은 AI 시스템이 오류, 악의적 공격, 예기치 못한 상황에서도 견고하고 탄력적으로 안정적 운영을 유지하도록 설계·관리되며, 이를 위해 지속적인 시험과 검증을 수행해야 함을 의미한다.
  • 2.7. 지속적 감독 및 개선 (Continuous Oversight) 원칙은 운영 중에도 지속적으로 성능, 편향, 윤리 리스크 등을 점검하고 개선해야 합니다.

3. 구체 행동 지침

  • 3.1. 데이터 수집 및 이용

    • 1) 데이터는 법적·윤리적 기준을 준수한 방식으로 수집하며, 동의 받은 범위 내에서만 활용한다.
    • 2) 민감 정보(의료·법률 정보 등)는 특별히 더 엄격한 보호 기준을 적용한다.
    • 3) 데이터 전처리 시 편향(bias)이 내재하지 않도록 주의하며, 다양한 그룹에 대한 균형점을 고려한다.
  • 3.2. 모델 학습 및 검증

    • 1) 훈련 데이터와 검증 데이터는 철저히 분리하고 오버 피팅과 일반화 오류를 방지한다.
    • 2) 모델 성능뿐 아니라 오류 유형, 오탐·과탐 비율 등도 검토해야 한다.
    • 3) 알고리즘 결정 과정에서 입력 중요도(feature importance) 설명이 가능하도록 설계한다.
  • 3.3. 추론 및 서비스 제공

    • 1) 결과가 사용자에게 미치는 영향을 고려해, 위험 수준에 따라 사전 경고나 사용자 선택권을 제공한다.
    • 2) 자동화된 결정이 사람에게 큰 영향을 미치는 경우(예: 법률 조언, 채용, 대출 평가 등) 반드시 인간의 감독을 포함한다.
    • 3) 시스템은 실시간 모니터링 체계를 갖추고, 이상 징후 발견 시 신속히 대응할 수 있어야 한다.
  • 3.4. 책임 및 거버넌스 구조

    • 1) AI 개발 프로젝트별 책임자(Accountable Person)를 지정한다.
    • 2) 윤리 검토 위원회 또는 자문 조직을 두어, 초기 설계 단계부터 윤리 리스크를 검토한다.
  • 3.5. 투명성 및 설명 가능성 공개

    • 1) 고객이나 사용자에게 AI 시스템이 어떤 입력 요소를 고려했는지, 오류 가능성 등을 가능한 범위 내에서 공개한다.
    • 2) 외부 제3자 검증(감사) 결과나 윤리 점검 결과를 요약하여 정기적으로 공개할 수 있다.
  • 3.6. 피해 구제 및 보상

    • 1) AI 시스템 이용 과정에서 발생한 오류나 피해에 대해서는 책임 소재를 명확히 하고, 피해 복구 또는 보상 절차를 마련해야 한다.
    • 2) 사용자 불만·이의 제기에 대응할 수 있는 내부 절차와 창구를 운영한다.
  • 3.7. 교육 및 윤리 문화 강화

    • 1) 전 직원 대상 AI 윤리 교육을 정기적으로 실시한다.
    • 2) 개발자·설계자들이 윤리적 사고를 일상적으로 반영할 수 있도록 체크리스트, 가이드라인을 제공한다.
    • 3) 윤리 위반 가능성을 조기에 인지할 수 있는 보고·상담 통로를 활성화한다.

4. 사례별 예시

  • 4.1. 법률 AI 서비스에서는 판례·법령 정보를 바탕으로 조언을 제공하더라도, 최종 판단은 법률 전문가가 검토하도록 안내 문구를 반드시 포함한다.
  • 4.2. 추천 시스템이 특정 집단을 지나치게 배제하지 않도록 다수 그룹에 대한 노출 균형을 유지해야 한다.
  • 4.3. 예측 모델이 위험 점수를 제공할 경우, 그 근거와 불확실성 범위를 함께 제공해 사용자가 과신하지 않도록 해야 한다.

5. 시행 및 개정

  • 5.1. 본 윤리 헌장은 회사 대표가 승인하고, 전 조직에 공표한다.
  • 5.2. 윤리 헌장의 효과성은 매년 평가하고, 필요시 개선하여 갱신할 수 있다.
  • 5.3. 주요 버전 변경 시는 내부 및 고객에게 공표하고, 변경 내용을 요약하여 공유한다.

2023년 1월 2일.

2025년 6월 1일. 개정