본 AI 활용 원칙은 당사의 출입통제(Access Control) 장치에 적용됩니다.
“안전하고 공정한 접근을 약속합니다.”
당사의 출입통제 장치는 지문 및 얼굴 인식의 정확도와 처리 속도를 향상시키기 위해 AI 기반 알고리즘을 활용합니다.
이 AI 기술은 출입 권한이 부여된 사용자를 정확하고 신속하게 식별하여, 해당 결과를 출입 인증 및 접근 허용 여부 확인에 활용하는 목적에 한해 사용됩니다.
당사의 AI는 감시, 행동 분석, 위험 평가 또는 개인의 사회적 특성을 판단하는 기능에는 사용되지 않습니다.
“AI 거버넌스 및 책임 원칙”
당사는 AI 장치의 설계·개발·운영 전 과정에서 공정성, 투명성, 책임성 및 강력한 데이터 보안을 핵심 원칙으로 삼고 있습니다.
AI는 출입자의 식별 정확도와 처리 속도를 향상시키기 위한 도구로 활용되며, 장치 운영 및 판단에 대한 최종 책임은 항상 사람과 운영 주체에게 있습니다.
또한 당사는 EU Artificial Intelligence Act(EU AI Act)의 위험 기반 규제 체계를 인지하고 있으며, AI 기반 생체인식 기술의 특성과 사용 목적을 고려하여 관련 요구 사항을 검토하고 단계적으로 대응하고 있습니다.
이 과정에서 인간의 감독, 이의 제기 절차, 대체 인증 수단 제공 등 현재 적용 가능한 투명성 및 책임 관련 원칙을 우선적으로 이행하고 있습니다.
필요 시 관리자의 개입과 대체 인증 수단을 통해 사용자의 권리와 안전을 보장하며, 모든 사용자는 윤리적이고 책임 있는 방식으로 운영되는 환경에서 시설을 이용할 권리가 있습니다.
당사는 이러한 원칙을 공개하고 지속적으로 준수할 것을 약속합니다.
1. 장치 개요 및 윤리적 설계
당사 장치의 목적은 권한이 있는 사람을 정확하게 식별하여 시설 출입을 통제하는 것입니다.
AI 알고리즘은 지문 및 얼굴 인식을 통해 개인을 식별하며, 해당 식별 결과는 출입 인증(authentication) 및 접근 허용 여부 확인에 사용됩니다.
인종, 성별, 연령 등 민감한 특성은 식별하거나 추론하지 않습니다.
없습니다. AI는 오직 단순 식별 기능에만 사용되며, 감시, 생체 기반 분류 , 위험 평가 등 개인의 권리나 사회 질서에 부정적 영향을 미칠 수 있는 기능을 수행하지 않도록 엄격하게 설계되었습니다.
네, 당사는 AI 장치 개발 및 운영 전반에 걸쳐 공정성, 투명성, 책임성의 핵심 AI 윤리 원칙을 엄격하게 준수합니다. 이는 데이터 처리 및 알고리즘 검증 과정에 반영되어 있습니다.
출입통제 장치는 개인정보 보호와 인권을 고려하여 설계되며, GDPR 등 관련 법규 및 내부 보안정책을 준수합니다. 오남용 방지를 위해 접근권한 관리와 사용자 동의 절차를 적용합니다.
2. 편향·공정성 및 책임
지문 및 얼굴인식 모델은 다양한 인종, 연령, 성별 데이터를 포함하여 학습되며, 데이터 불균형을 방지하기 위해 분포를 점검하고 필요 시 보완하여 대표성을 확보합니다.
정기적으로 인식 성능을 그룹별로 검토하여 편향 여부를 평가합니다. 필요 시 데이터 개선 및 재학습을 통해 모든 사용자에게 공정한 성능을 제공하도록 유지합니다.
AI는 출입자의 식별 정확도와 처리 속도를 향상시키기 위한 도구로만 사용되며, 최종 결정과 책임은 항상 관리자 등 사람에게 있습니다.
모든 인증 결과는 관리자 검토를 거칠 수 있으며, 역할과 책임이 명확히 구분되어 있습니다.
AI는 인종, 성별, 연령 등 보호되는 특성과 무관하게 작동하며, 보호되는 속성을 기준으로 개인을 식별하거나 추론하거나, 분류하지 않도록 설계되었습니다.
AI는 도구이며, 장치 운영 및 관리의 최종 책임은 운영 주체에게 있습니다. 오류 발생 시 사람의 감독 절차를 통해 신속히 대처할 수 있도록 합니다.
본 장치는 출입 통제 및 인증 용도로만 사용되며, 고용 의사결정에는 사용되지 않습니다. 또한 장애인 접근성을 고려한 대체 인증 수단(예: 카드, 모바일 인증)을 제공합니다.
3. 투명성 및 자동화 처리
출입통제 장치의 모든 인증 결과와 처리 과정은 장치에 자동으로 기록되어 투명하게 관리됩니다. 관리자는 로그를 통해 인증 내역과 판단 근거를 확인할 수 있으며, 필요 시 내부 감사 절차를 통해 검증이 이루어집니다.
정확성과 신뢰성을 확보하기 위해 내부 검토 및 전문가 피드백을 반영하여 지속적으로 개선합니다.
운영 주체는 사용자 등록 시 동의 절차를 거쳐야 하며, 사용자는 원하지 않을 경우 다른 인증 수단을 선택할 수 있습니다. AI 성능 관련 의견은 당사의 고객지원 채널을 통해 전달할 수 있습니다.
인증 결과는 명확하게 표시되며, 고객은 등록 정보와의 일치 여부를 쉽게 확인할 수 있습니다. 필요 시 로그 및 기록을 통해 상세 설명이 제공됩니다.
AI는 출입 인증 등 제한된 범위의 자동화된 처리만을 수행하며, 최종 승인과 정책 설정은 운영 주체가 수행합니다. 모든 결과는 필요 시 인간의 검토를 거칩니다.
출입통제 장치는 설치 및 운영 매뉴얼을 통해 사용자 등록, 인증 및 접근권한 관리 기능 등의 절차가 안내됩니다. 관련 문서는 요청 시 제공됩니다.
4. 데이터 관리 및 보안
AI 모델 학습에는 주로 회사가 자체 수집하여 보유한 내부 데이터와, 그리고 적법하게 이용 가능한 외부 데이터가 사용됩니다.
네. 관련 법규에 따라 개인정보 동의를 받은 데이터만 수집·보관하여 사용하며, 보존 기간과 활용 범위는 내부 기준에 맞춰 관리합니다.
데이터는 정제 및 검증 과정을 거쳐 정확성과 무결성을 확보합니다. 전송 및 저장 시에는 암호화, 체크섬(Checksum) 검증, 해시(Hash) 값 비교를 통해 무결성을 유지합니다.
데이터는 다양한 출처와 조건을 반영하여 수집되며, 편향 최소화 및 대표성 확보를 위해 정기적으로 검토·보완됩니다. 전문가 검토 및 통계적 분석을 통해 관련 속성을 선정합니다.
데이터는 보존 기간이 종료되면 관련 정책에 따라 안전하게 삭제되며, 장치상에서도 불필요한 데이터가 남지 않도록 관리됩니다.
5. 위험관리
AI 장치의 데이터 보호, 성능, 오류 등과 관련된 위험발생 시 관리자에게 매뉴얼 또는 조치방안을 제공하는 프로세스를 운영하고 있습니다.
장치는 에너지 효율성을 고려한 하드웨어 및 알고리즘을 사용하며, 지속적인 최적화를 통해 불필요한 자원 낭비를 줄이고 환경 영향을 최소화합니다.
6. AI 리터러시 및 사용자 역량 강화
AI 리터러시는 AI의 기본 원리와 작동 방식을 이해하고, 이를 효과적으로 활용하며, AI가 생성한 결과를 비판적으로 평가하는 능력을 의미합니다. 단순히 AI 도구를 사용하는 기술을 넘어, AI의 한계와 가능성을 파악하고 윤리적인 판단을 내리는 종합적인 역량입니다.
당사는 AI 장치를 설계·개발·운영·관리·사용하는 모든 이해관계자가 각자의 역할과 책임에 적절한 범위 내에서 AI의 기능, 한계 및 잠재적 위험을 이해할 수 있도록 교육 및 안내 또는 이외의 적절한 방법으로 AI 리터러시 능력을 확보할 수 있도록 노력하고 있습니다.
당사는 AI 리터러시를 선언적 개념이 아닌 실질적 역량으로 보고, AI 오작동, 편향, 개인정보 침해 및 법적 책임 발생 가능성을 인지하고 대응할 수 있도록 하는 데 중점을 둡니다.
이러한 AI 리터러시 확보 조치는 당사의 임직원, 장치 운영자(관리자) 및 고객사 관리자 등 각 이해관계자의 역할과 책임을 고려하여 적절한 범위와 방식으로 진행됩니다.
내용은 변경될 수 있으나 일반적으로 다음의 내용을 포함합니다.
당사 임직원 : AI의 기본 원리, 편향·오류 가능성, 책임 구조
운영자(관리자) : 인증 오류 대응, 대체 인증 절차, 로그 해석
고객사 관리자 : AI 사용 한계, 법적·윤리적 책임, 오남용 방지
2026년 1월 22일