EU-wetgeving: videodeelplatformen en kinderrechten
Kinderen zijn enthousiaste gebruikers van audiovisuele media-inhoud. Videodeelplatformen, zoals YouTube en TikTok, bieden veel kindvriendelijke inhoud, maar ook inhoud die - afhankelijk van de leeftijd van het kind - als ongeschikt of potentieel schadelijk kan worden beschouwd. Deze studie onderzoekt de verantwoordelijkheden van videodeelplatformen ten opzichte van kinderen volgens EU-wetgeving, namelijk de AudioVisual Media Services Directive (AVMSD), de General Data Protection Regulation (GDPR), de Digital Services Act (DSA) en het voorstel voor een Artificial Intelligence Act.
Studie over
Beleid
Onderzoeksmethode(n)
Inhoudsanalyse
Medium/technologie
Sociale media
Televisie/video
Soort publicatie
Wetenschappelijk artikel
Tags
beleid
kinderrechten
Sociale media
Kerninzichten
De AudioVisual Media Services Directive is een EU-wet die probeert kinderen te beschermen tegen schadelijke inhoud. In de eerste plaats richtte de AVMSD zich op televisie, maar dit werd later uitgebreid naar on-demand services (zoals Netflix) en videodeelplatformen (zoals TikTok en YouTube). De maatregelen omvatten onder andere leeftijdscontrole, ouderlijke controle, het behandelen van klachten en mediawijsheidstools. Het is aan de lidstaten om ervoor te zorgen dat deze regels worden nageleefd en toegepast.
Videodeelplatformen verzamelen data over hun gebruikers, daarom is het ook nuttig om de General Data Protection Regulation te bekijken. Platformen die onder de GDPR vallen moeten zich houden aan de principes van deze wet (zoals bijvoorbeeld eerlijkheid, wettelijkheid en transparantie). Wanneer de persoonsgegevens van kinderen worden verwerkt bepaalt de GDPR dat zij recht hebben op "specifieke bescherming’" Het werkelijke beschermingsniveau hangt echter af van de implementatie, handhaving en de begeleiding van het Europees Comité voor Gegevensbescherming.
De Digital Services Act moet voor een veilige en betrouwbare online omgeving zorgen door bepaalde verplichtingen op te leggen aan online platformen. Voorbeelden van deze verplichtingen zijn het modereren van illegale en schadelijke content, transparantie van aanbevelingssystemen en het identificeren en beperken van systeemrisico's. Voor kinderen zijn er specifieke maatregelen zoals een verbod op gerichte advertenties op basis van profielanalyse.
Het voorstel voor een Artificial Intelligence Act moet zorgen voor de bescherming van grondrechten en moet een positief effect hebben voor bepaalde groepen, waaronder kinderen. Zo verbiedt het praktijken die misbruik maken van de kwetsbaarheid van deze groepen om hun gedrag te verstoren zodanig dat het kan leiden tot psychologische of fysieke schade.
In het algemeen stellen de onderzoekers dat de EU-wetten videodeelplatformen verplichten om verschillende soorten beoordelingen uit te voeren om de rechten van kinderen te beschermen. Ze moeten bijvoorbeeld kijken naar de mogelijke impact op kinderen voordat ze nieuwe functies lanceren.
Er zijn nieuwe regelgevende instanties opgericht om ervoor te zorgen dat videodeelplatformen de wetten naleven en dus kinderen beschermen. Het is belangrijk dat deze instanties voldoende middelen hebben om hun taken uit te voeren.
Om effectief te zijn, moeten videodeelplatformen, regelgevers en andere betrokken partijen samenwerken. Ze moeten ook kinderen betrekken bij het ontwikkelen en handhaven van regels.
Er is meer onderzoek nodig om te begrijpen hoe deze wetten kinderen beïnvloeden en hoe ze beter kunnen worden toegepast om kinderen te beschermen tegen online risico's.
Verdoodt, V., Lievens, E., & Chatzinikolaou, A. (2023). The EU approach to Safeguard Children’s Rights on Video-Sharing Platforms: Jigsaw or maze? Media and Communication, 11(4).
Onderzoek in de kijker
Elke maand komen er in Vlaanderen gemiddeld 16 nieuwe papers en publicaties uit rond media en communicatie. We selecteren voor jou enkele markante publicaties.