플랫폼 규제로부터의 교훈: 디지털 권리와 거버넌스 – 2025 OGP 서밋 본 회의

by | Oct 20, 2025 | 열린정부, 오픈블로그, 표현의 자유, 혁신과 규제 | 0 comments

오픈넷 박경신 이사는 10월 8일 2025 열린정부 서밋 (Open Government Summit) “디지털 권리와 거버넌스” 세션에서 다음과 같은 질문에 답변했다 : 우리는 규제되지 않는 소셜 미디어의   사회적 민주주의적 악영향을 확인했다. 특히 매개자 책임과 콘텐츠 거버넌스와 관련하여 AI 등 기술 거버넌스 체계에 이러한 경험이 어떻게 적용될 수 있을까?” (영상은 여기 4:03:50에서 확인 가능):

세 가지 교훈이 있다:

  1. 매개자 책임 면책 특권은 계속 유지될 것이다. DSA에 따르면 그렇다. 플랫폼 다양성은 포기할 수 없는 목표이기 때문이다.
  2. 플랫폼에 대가 없는 면책 특권을 줄 수 없다. DSA는 통지-삭제(notice-and-takedown)를 요구해야 한다.
  3. 각 국가들은 역사적 발전 단계가 다르므로 자신들의 단계에 따라 다른 해결책이 필요하다.

교훈 1. 매개자 책임 면책 특권 : 오픈넷은 최근 플랫폼 거버넌스에 대한 3일간의 학교 과정을 아시아 활동가들과 정책 입안자들을 위해 운영했다. 플랫폼이 인식하지 못하거나 위법성을 모르는 사용자 콘텐츠에 대해 책임을 부과하면, 플랫폼들은 업로드 전에(사전 검열처럼) 또는 업로드 후에(일반 모니터링) 모든 사용자 콘텐츠를 검토해야 한다는 점을 강조했다. 사전 검열이나 일반 모니터링의 비용을 감당할 수 없는 중소 플랫폼들은 서비스를 종료해야 하며, 결국 빅테크만 남게 될 것이다. 이것이 면책 특권이 명확하게 확립되지 않은 한국과 다른 아시아 국가에서 일어난 일이다. 그로 인한 독점은 검열/감시를 너무 쉽게 만든다. 한 회사가 권력에 굴복하는 것만으로도 수백만 개의 게시물/데이터에 영향을 미칩니다. 이것이 바로 DSA가 25년 전 전자상거래 지침의 매개자 책임 면책 특권을 계승할 것이라고 명시하는 이유다.

교훈 2. 책임 면책이 플랫폼에 아무대가 없이 주어져서는 안된다: 면책은 플랫폼이 불법 콘텐츠 제거를 위해 성실한 노력을 기울일 때만 주어져야 한다. DMCA 512가 이것을 명확히 해왔다. 플랫폼들이 통지 받았을 때, 위법 콘텐츠를 성실히 제거하고, 법적 절차에 따라 모든 합법 콘텐츠를 복구하면서, 위법 콘텐츠의 90-95%가 언론의 자유를 위반하지 않으면서 제거되고 있다. DSA는 이런 의미에서 DMCA의 유럽화이다. DSA 하의 틱톡의 복구율은 상당히 높지만, 그 비율이 감소하여 “대충의 정의” 버전에 도달하는지 지켜봐야 할 것이다.

교훈 3. 국가들은 역사적 발전 단계에 따라 다른 해결책이 필요하다: 유럽에서 작동하는 것이 아시아에서도 작동하지 않을 수 있다. 통지-삭제는 선택적이며, 사용자의 표현의 자유를 위반하지 않으면서 플랫폼이 성실하게 감시하도록 장려하기 위한 당근이었다. 그러나 NetzDG는 DSA와 달리, 채찍으로 시작했다. 즉, 플랫폼이 불법 콘텐츠를 제거하지 않으면 불이익을 받는 것이다. 하지만 플랫폼이 많은 합법적 콘텐츠까지 제거하도록 부추기는 경향이 있었다. 이는 사회 구조가 수직적이고 정부가 시민사회를 지배하는 아시아 국가들에서 특히 위험했다. 즉, 통신부가 스스로 플랫폼에 삭제 통지를 발부하는 역할을 수행했고, 결과적으로 많은 반정부 콘텐츠를 삭제하여 권위주의적 위험에 처했다. 다행히 프랑스 헌법재판소는 프랑스판 NetzDG인 Avia 법률이 위헌이라 결정했다. 이유는 표현의 자유가 행정기관 단독으로 제한되어서는 안 된다는 것이었다.

또한 박 이사는 “AI와 같은 새로운 기술은 이미 경제와 사회의 기능 방식을 변화시켰습니다. 이러한 기술이 사람들의 삶을 개선하고 공공의 신뢰를 구축하도록 보장할 수 있는 방법이 무엇인가?”라는 질문에 다음과 같이 답변했다(영상 4:16:55):

지능은 진화의 결과다. AI는 자기보존 본능을 갖춘 행위자가 없기 때문에 그러한 의미에서 지능적이지 않다. AI는 엄청난 양의 데이터 세트를 흡수하고 인간의 요청에 가장 확률이 높은 반응을 되풀이하는 확률론적 기계다. 짧게 말하자면, AI는 인간의 행동을 모방한다. AI를 당신을 위해 작동하게 하려면, 당신의 데이터가 그 위에 학습되어야 한다. AI를 모두를 위해 작동하게 하려면, 사람들이 AI를 신뢰해야 하는 것이 매우 중요하다. 그렇지 않으면 AI는 충분한 데이터가 없어서 일부(아마존의 여성 차별 채용 AI나 MS 챗봇 Tay의 소수자 차별처럼)에게 불공정한 결과를 생산하고, 학습 데이터 제출을 꺼리게 하는 악순환에 빠지게 될 것이다. 이 악순환을 피하기 위해 정부의 역할이 중요하다. 첫째, 정부는 AI 학습을 위한 고품질 데이터를 가지고 있다. OGP는 정부가 시민 담론과 민간 부문을 위해 모든 데이터를 공개하고 있기 때문에 중요하다. 또한 정부는 데이터 보호 법률을 사용하여 익명화 및 가명화를 활성화하여 개인정보를 보호함으로써 사람들이 학습 데이터 제출을 덜 두려워하도록 할 수 있다.

박 이사는 연령 확인과 플랫폼 책임에 관한 브라질 분쟁(판사의 요청 불이행으로 인한 X 차단)에 대한 질문에 다음과 같이 답변했다(영상 4:36:49):

플랫폼은 규제되어야 하지만, 규제에 관한 접근 방법이 달라야 한다. 플랫폼이 무엇인가? 플랫폼은 우리의 통신을 전달한다. 예를 들어, 네팔에서 법률 위반을 이유로 전체 플랫폼을 차단한 것이 얼마나 어리석은 것인지 보았다. 플랫폼 규제는 항상 양날의 검이 될 것이고, 연령 확인 제도는 역효과를 낼 수 있는 또 다른 규제이다. 모든 사람이 연령을 확인하기 위해 자신의 개인정보를 제출해야 하므로 모두의 개인정보 자기결정권이 침해될 것이다. 또한 디지털 기술은 비경합적 재화, 즉 많은 사람이 소비해도 양이 줄어들지 않으면서 이득을 볼 수 있는 재화인 데이터를 생산한다. 디지털 기술의 이점을 활성화하는 데 있어 OGP의 역할이 중요하다.

English Version Text

0 Comments

Submit a Comment

Your email address will not be published. Required fields are marked *

최신 글