우리에게 필요한 AI 규제: 아시모프의 로봇 3원칙 — UC 데이비스 강의

by | Feb 17, 2026 | 오픈블로그, 표현의 자유, 혁신과 규제 | 0 comments

오픈넷 박경신 이사는 2026년 1월 26일 UC 데이비스 로스쿨에서 인공지능에 관한 강의를 진행했다(강의 스트리밍 링크 제공)

AI란 무엇인가?

현재의 AI는 대규모 인간 행동 데이터를 바탕으로 확률적으로 가장 그럴듯한 응답을 생성하는 모델로 이해할 수 있습니다. 수많은 고양이 사진과 설명이 결합되면서, “고양이”라는 단어는 고양이 이미지와 통계적으로 강한 연관성을 형성하게 되고, AI는 이러한 패턴에 기반해 응답을 생성합니다.

AI는 아이가 배우는 과정과 유사한 방식으로 “학습”합니다. 고양이 사진과 고양이가 아닌 사진을 반복적으로 접하면, 아이는 ‘고양이다움(felinity)’을 명확히 정의하지 못하더라도 점차 고양이를 구별할 수 있게 됩니다. 이 과정에서 고양이 이미지와 “고양이”라는 단어 사이의 강한 상관관계가 인간의 뇌와 소프트웨어 시스템 내부에 어떤 형태로든 저장됩니다.

이러한 점에서 AI는 무언가를 ‘학습한다’기보다 인간 인지의 패턴을 모방한다고 이해할 수 있습니다. 즉, 특정 특징들의 집합과 “고양이”라는 개념을 연결 짓는 경향을 재현하는 것입니다.

노벨상 수상으로 주목받은 AlphaFold 역시 인간적인 의미에서 새로운 지식을 창조한다기보다는, 알려진 아미노산 서열과 단백질 접힘 구조 데이터를 바탕으로 패턴을 학습하여 새로운 서열의 구조를 예측하는 방식으로 작동합니다. 이러한 과정은 인간적인 의미의 창의성과는 구별될 수 있으며, 기본적으로 통계적 추론에 기반한다고 볼 수 있습니다. 그럼에도 불구하고 그 유용성은 매우 큽니다. 벤 애플렉이 AI 작가의 결과물을 “평범함으로의 수렴”이라고 표현한 것도 이러한 맥락에서 이해할 수 있습니다. AI는 통계적으로 가능성이 높은 패턴을 따르는 경향이 있기 때문입니다.

AI가 통계적 추론에 기반하고 인간 행동을 모형화하려 하기 때문에, 학습 데이터의 질과 양은 성능에 결정적인 영향을 미칩니다. 더 많은 고품질 데이터가 토큰화되어 학습에 활용될수록 성능은 향상됩니다. 성능은 소프트웨어 자체뿐 아니라 데이터에 크게 좌우됩니다. AI는 마이크로소프트 윈도우나 iOS와 마찬가지로 복제가 가능한 소프트웨어이며, 많은 오픈소스 AI 시스템은 기존 오픈소스 소프트웨어와 유사한 방식으로 개발·배포됩니다. 일반적인 개인용 컴퓨터에서 AI 활용이 제한적인 이유는 주로 컴퓨팅 자원과 데이터 접근성의 제약에 기인합니다.

어떤 AI 규제가 필요한가?

AI는 확률적 기계이자 인간 활동을 위한 소프트웨어 기반 도구입니다. 소프트웨어는 강하게 규제되어온 영역이 아니었습니다. 왜 우리는 AI를 유료하며, 규제가 필요하다고 논의하는 것일까요? 기존의 자동화 시스템이나 소프트웨어와 비교했을 때 AI의 차별성은 무엇일까요? AI는 과거에는 대기업이나 정부에 집중되어 있던 지식 접근 능력을 개인에게 확대할 수 있는 잠재력을 지니고 있습니다. 이러한 점에서 AI는 민주주의를 강화하는 도구로 기능할 가능성을 가지고 있으며, 그 잠재력을 어떻게 발전시킬 것인지가 중요한 과제입니다.

현재의 머신러닝 기반 AI의 특성으로부터 도출할 수 있는 AI 고유의 해악은 다음과 같습니다.

1. 학습 데이터 독점: AI의 성능은 학습 데이터에 달려 있습니다. 일반 소프트웨어처럼 완전히 소유하고 통제할 수 없으며, 사용자는 학습 데이터의 가용성에 의존해야 하고, 데이터 통제자가 독점적 지배권을 갖게 됩니다.

2. 인간 불공정성의 증폭: 인간 행동 데이터를 기반으로 하지 않는 일반 소프트웨어와 달리, AI는 나쁜 학습 데이터에 포함된 나쁜 개인들의 행동 데이터를 평균화합니다.

3. 특이점 이후의 실존적 위협(‘AI의 세계 정복 또는 인류 절멸’): AI가 기계인 이상, 인간의 생명을 고려하지 않는 반인류적 행동을 수행하도록 명령받을 수 있습니다.

데이터 독점 문제

AI에 대한 접근은 인터넷 접근과 유사한 이유에서 폭넓게 보장될 필요가 있습니다. 다만 현재 인터넷 접근권조차도 접속 차단에 대한 보호 등 제한적인 범위에서만 권리로 인정되고 있다는 점을 고려할 필요가 있습니다.

AI가 프라이버시를 위협한다는 우려가 많지만, 개인정보 보호 규제는 이미 데이터의 수집, 보유, 접근, 분석(민감정보 추론 포함), 이전, 그리고 시스템 출력까지 포괄하고 있습니다. AI로 인한 피해를 줄이기 위해 관련 제도를 보완한다면, 특히 데이터 이동권을 강화하는 것이 중요합니다.

데이터 이동권이 강화되면 개인의 행동 데이터가 소수의 대형 플랫폼에 과도하게 집중되는 현상을 완화하고, 보다 균형 잡힌 AI 접근 환경을 조성하는 데 기여할 수 있습니다.

학습 데이터 편향의 증폭 문제

AI의 데이터 기반 특성을 고려할 때, 차별을 줄이기 위해서는 학습 데이터의 다양성을 확보하는 것이 중요합니다. 다양한 집단의 데이터가 포함될수록 AI는 보다 포용적이고 균형 잡힌 결과를 생성할 가능성이 높아집니다. AI가 개인에게 유의미하게 작동하려면 해당 개인의 데이터가 반영될 필요가 있으며, 사회 전체를 위해 작동하려면 다양한 집단의 데이터가 포함되어야 합니다. 예를 들어 아마존의 채용 데이터에는 성공한 여성 임원에 대한 정보가 충분히 반영되지 않았을 것입니다. 학습 데이터의 다양성은 AI 성능과 공정성에 핵심적인 요소입니다. 마이크로소프트의 챗봇 테이(Tay)가 인종차별적·성차별적 발언을 한 것은 기존 트위터 데이터를 자극적이고 논쟁적인 발언이 더 많은 반응을 유도한다는 것을 학습했기 때문입니다.

AI가 재현하지 않기를 바라는 인간 행동의 특성이 있다면, 학습 데이터 구성 단계에서 이를 신중하게 조정할 필요가 있습니다. 현재의 AI는 시행착오를 통해 학습하는 구조를 가지므로, 마치 교육 과정에서 교재 내용을 신중히 선택하듯 데이터 구성 역시 중요한 문제입니다.

다만 학습 데이터의 정제 과정에 정부가 개입해서는 안됩니다. 권위주의적 환경에서는 AI가 정치적 검열 도구로 활용될 위험이 있습니다. 따라서 시민사회와 개발자가 협력하여 데이터를 정제·구성하는 방식이 바람직할 수 있으며, 이러한 협력적 과정을 제도적으로 촉진하는 방안이 논의될 수 있습니다. 이와 함께 정부에 의한 데이터 검열을 제한하는 장치도 중요하게 고려될 필요가 있습니다.

“특이점 통제”

AI가 도구 또는 기계라는 점, 그리고 인간의 통제 하에 있다는 점이 항상 안전을 보장하는 것은 아닙니다. 일부 기술은 통제를 벗어나 피해를 초래할 수 있으며, 설계자 자체가 문제적 의도를 가질 가능성도 존재합니다. 컴퓨터 바이러스나 생물학적 바이러스는 이러한 사례를 보여줍니다. 일단 확산되면, 이들은 설계된 코드나 구조에 따라 작동하게 됩니다. AI 역시 설계나 목표 설정에 따라 심각한 위험을 초래할 수 있습니다. 특히 자기 보존이나 무제한적 목표를 중심으로 설계될 경우, 예상하지 못한 결과로 이어질 가능성이 있습니다.

이러한 문제로 인해 AI에 대한 형사책임 논의도 제기되고 있으나, 이는 AI에게 권리나 재산과 같은 개념을 부여할 때에만 의미를 갖는다는 점에서 한계가 있습니다. 최근 연구에 따르면 사람들은 AI에게 자유나 자산을 부여하려 하지 않습니다. 이른바, “처벌 격차”가 존재하는 것입니다.

보다 현실적인 접근으로는 기관생명윤리위원회(IRB)와 유사한 전문적 감독 체계를 통해, AI가 무제한적 목표를 부여받지 않도록 관리하는 방안이 고려될 수 있습니다. 이는 아시모프의 로봇 3원칙과 같은 규범을 재검토하는 논의와도 연결됩니다. 또한 핵비확산조약(NPT)과 유사한 국제적 규범에 대한 논의도 이루어지고 있습니다.

기타 규제 논의

노동 대체 문제

기술 발전에 따라 새로운 형태의 일이 기존 일자리를 대체하고 있습니다. 공급 측면의 많은 활동이 자동화의 영향을 받을 수 있으며, 이는 반드시 인간보다 기계가 우수하기 때문이라기보다는 ‘진정성(authenticity)’이 가치의 중요한 요소이기 때문일 수 있습니다. 교육, 공연, 의료, 법률과 같은 영역에서도 일부 기능은 자동화될 수 있습니다. 그러나 학생, 관객, 환자, 의뢰인과 같은 존재는 대체되기 어렵습니다. 이들은 욕구를 가진 존재이기 때문입니다. 어떤 서비스가 제공되기 위해서는 그것을 필요로 하는 주체가 존재해야 합니다. 이는 사람들이 단순히 서비스 자체가 아니라 ‘진정성’에 가치를 부여한다는 점과도 연결됩니다. 유명인이 사용한 물건이 더 높은 가치를 갖거나, 인간의 기량이 평가되는 공연·스포츠·게임 등이 그 예입니다. 법학 교육에서 AI를 활용한 과제 작성 논의와 관련하여, 평가 역시 AI를 활용할 수 있는지에 대한 질문이 제기될 수 있습니다. 이는 단순한 농담이 아니라, 프롬프트 설계 능력 자체를 평가 대상으로 볼 수 있다는 점에서 의미 있는 논의입니다. 또한 AI가 생성한 텍스트는 종종 내용 대비 장황한 경향이 있어, 평가 과정에서 AI 활용이 오히려 합리적일 수 있다는 관점도 가능합니다.

알고리즘 투명성과 설명 가능성에 대한 권리

알고리즘 투명성과 설명 가능성에 대한 권리는 몇 가지 한계를 갖습니다.

첫째, 알고리즘의 공개만으로는 AI의 작동 방식을 충분히 이해하는 데 한계가 있습니다. AI의 결과는 코드보다는 학습 데이터의 영향에 크게 좌우되기 때문입니다.

둘째, AI의 학습 방식 자체로 인해 설명 가능성에는 구조적인 제약이 존재합니다. 인간이 경험을 통해 개념을 익히는 것처럼, AI 역시 패턴을 기반으로 판단을 내립니다. 특정 결과에 대한 설명은 통계적 유사성(‘고양이가 아닌 사진 100억장보다 고양이 사진 10억장과 더 닮아서’)에 기반한 수준에 머무를 수 있습니다.

셋째, 인간의 의사결정 역시 항상 명확하게 설명 가능한 것은 아닙니다. 실제로 많은 경우 직관이나 종합적 판단에 의존하며, 이를 완전히 언어로 설명하기 어려운 경우도 존재합니다. 실제 배심원단의 평결에 설명을 요하지 않는 것도 이 때문입니다. 

넷째, 일반적으로 사적 주체는 자신의 모든 결정에 대해 광범위한 설명 의무를 부담하지는 않습니다. 이러한 점을 고려할 때, 설명 가능성 요구는 주로 공적 영역에서의 의사결정과 관련하여 논의될 필요가 있습니다. 또한 정부의 결정이 자의적(자의금지원칙 위반)이고 합리적으로 설명될 수 없다면(설명불가능성 금지 원칙 위반), 그것이 AI를 통해 이루어졌는지 여부와 관계없이 위헌적이라고 평가될 수 있습니다.

조작당하지 않을 권리

조작당하지 않을 권리는 개인이 자신의 의사를 효과적으로 표현하기 위해 기술을 활용할 자유와 충돌할 수 있습니다. 예를 들어, 선거 자금이 부족한 후보는 예술가를 고용할 돈이 없으므로 AI를 활용해 시각적 캠페인 자료를 만들 수 있어야 합니다. 이처럼 시각 자료 제작이 어려운 사람에게 AI는 표현 수단을 확장하는 도구가 될 수도 있습니다. 근본적 문제는 조작과 설득을 구분하는 것은 쉽지 않다는 것입니다. 조작인지 여부는 AI 기술 사용 여부보다는 권력 관계에 달려있습니다. 따라서 개인이 아니라 우월적 지위에 있는 정부가 조작 금지 규정의 대상이 되어야 합니다.

인간 결정 및 인간 간 상호작용에 대한 권리

기술은 인간을 반복적이고 부담이 큰 작업에서 해방시키는 역할을 해왔습니다. 예를 들어 세탁기의 도입은 가사 노동의 부담을 크게 줄였습니다. 마찬가지로 AI는 복잡한 정보 처리나 분석을 보조하여 의사결정을 지원할 수 있습니다. AI는 인간 판사가 사건에 관련된 모든 판례를 참고하는데 드는 시간을 줄여 더 공평한 판결을 더 빠르게 내리는데 도움을 줄 수 있습니다. 모든 결정을 반드시 인간이 내려야 한다는 주장은, AI가 인간의 도구로 활용되고 적절한 감독 하에 있을 경우 그 잠재적 이점을 충분히 고려하지 못할 수 있습니다.

또한 어떤 결정이 반드시 인간에 의해 이루어져야 하는 지를 구분하는 것은 쉽지 않습니다. 기업의 의사 결정, 정부 정책, 선거 과정 등에서 AI를 활용한다면 그것은 누구의 결정일까요? 인간이 내려야 할 결정과 AI에게 맡겨도 될 사소한 결정을 구분하는 것은 매우 어려울 것입니다.

Powered By EmbedPress

English Version Text

0 Comments

Submit a Comment

Your email address will not be published. Required fields are marked *

최신 글