Others

EU, 메타 아동 안전 우려로 조사 착수

By Mackenzie Crow

5/16, 06:24 EDT
Meta Platforms, Inc.
article-main-img

핵심 요약

  • EU가 Meta에 대해 아동 안전 우려를 이유로 조사를 개시했으며, 행동 중독과 부적절한 연령 검증 문제에 초점을 맞추고 있다.
  • 이번 조사는 유해 온라인 콘텐츠 규제와 미성년자 보호를 목표로 하는 디지털 서비스법 집행의 일환이다.
  • Meta의 EU 우려사항에 대한 대응이 주목되고 있으며, 이는 테크 기업의 아동에 대한 영향에 대한 규제 강화를 보여준다.

EU, 조사 개시

유럽 집행위원회는 Facebook과 Instagram의 모회사인 Meta에 대해 플랫폼 내 아동 안전 문제와 관련하여 중대한 조사를 개시했다. 2024년 5월 16일 발표된 이번 조사는 Meta의 서비스가 아동의 행동 중독을 유발하고 해로운 또는 중독성 있는 콘텐츠로 이어지는 "토끼굴 효과"를 초래할 수 있는지에 초점을 맞추고 있다. 또한 Meta 플랫폼의 연령 검증 절차의 효과성에 대한 의문도 제기되고 있다. 이번 조치는 테크 기업이 특히 젊은 층에 미치는 영향에 대해 강화되는 규제 감독을 보여준다.

디지털 서비스법 집행

이번 조사는 유해 온라인 콘텐츠 규제와 안전한 디지털 환경 조성을 목표로 하는 EU의 핵심 법안인 디지털 서비스법(DSA) 하에서 진행되고 있다. DSA는 특히 미성년자 보호 문제에 초점을 맞추고 있다. 이번 조사는 2023년 9월 Meta가 제출한 위험 평가 보고서에 대한 예비 분석 결과에 따른 것이다. 이는 EU가 플랫폼을 통해 유통되는 콘텐츠에 대한 테크 기업의 책임을 강화하려는 전략의 일환으로 볼 수 있다. 이는 2023년 12월 X(구 트위터)에 대한 유사한 위반 절차 개시에서도 드러난다.

Meta의 대응 주목

발표 시점 기준, Meta는 이번 EU 조사에 대해 공식적인 입장을 내놓지 않았다. Meta의 즉각적인 대응 부재는 아동 안전과 중독 방지 메커니즘에 대한 EU의 우려에 어떻게 대처할지에 대한 관심을 더욱 고조시키고 있다. 테크 업계와 규제 당국은 Meta의 향후 행보를 주시하고 있는데, 이는 디지털 플랫폼이 취약 계층인 아동을 대상으로 콘텐츠와 사용자 상호작용을 관리하는 방식에 대한 선례가 될 수 있기 때문이다.