EU, 메타에 대한 조사 강화… "아동 서비스 접근 차단 실패"
2026-04-29 12:30:47.722+00
유럽연합(EU)은 메타가 13세 미만 아동의 소셜 네트워크 서비스(SNS) 이용을 효과적으로 차단하지 못해 EU 디지털서비스법(DSA)을 위반했다는 이유로 조사를 강화한다고 밝혔다. EU 집행위원회 부위원장인 헤나 비르쿠넨은 29일(현지시간) "메타는 페이스북과 인스타그램의 이용 약관에 13세 미만 아동을 위한 플랫폼이 아님을 명시하고 있다"며, "예비 조사 결과 따르면 인스타그램과 페이스북이 이 연령 이하 아동의 서비스 접근을 차단하기 위해 실질적인 조치를 취하지 않은 것으로 나타났다"고 언급했다.
EU 집행위원회는 플랫폼이 사용자들에게 생년월일 입력을 요구하고 있지만, 미성년자를 식별하고 접근을 막는 시스템이 마련되지 않았음을 지적했다. 이러한 점은 플랫폼의 신뢰성과 아동 보호 의무에 심각한 타격을 줄 수 있다. 메타는 이번 조사 결과에 대해 개선책을 제시할 기회를 가질 것이며, 향후 추가 조사에서 DSA 위반이 최종 확인되면 최대 6%에 달하는 전 세계 연간 총매출에 대한 벌금이 부과될 수 있다.
이러한 조치는 아동 보호의 중요성이 커지는 사회적 요구를 반영한 것이며, 메타와 같은 대형 플랫폼이 안전한 인터넷 환경을 조성해야 한다는 책임을 지고 있다는 점을 강조한다. 메타 측은 현재 상황에 대한 대응 방안을 마련하고 있으며, 향후 법적 절차에 따라 적절한 조치를 취할 예정이다.
EU의 조사와 규제 강화는 이러한 대형 기술 기업들이 법률과 규제를 준수하게끔 하는 데 중요한 역할을 하고 있으며, 아동 안전을 위한 보다 엄격한 기준을 설정하는 데 기여할 것으로 기대된다. 메타가 이러한 상황 속에서 사실상 아동을 보호하기 위한 시스템을 마련할 것인지 귀추가 주목된다.
