DELEN | AFDRUKKEN | E-MAIL
De Republikeinse meerderheid in de Justitiële Commissie van het Amerikaanse Huis van Afgevaardigden heeft zojuist een omvangrijk rapport gepubliceerd met de titel "tussentijds personeelsrapport” (3 februari), waarin documentair bewijs wordt gepresenteerd van verregaande digitale censuur door online platforms onder toezicht van de Europese Commissie. Het rapport, getiteld “De dreiging van buitenlandse censuur, deel II: Europa’s tien jaar durende campagne om het wereldwijde internet te censureren…”Dit is ontnuchterende lectuur en bevestigt de ergste angsten van critici van de Digital Services Act (DSA). Het is belangrijk te benadrukken dat het censuurregime dat de DSA mogelijk maakt, niet alleen Europeanen, maar ook andere landen zorgen zou moeten baren. niet-Europeanen, aangezien het praktische effect ervan, gezien de technische uitdagingen en economische kosten van het instellen van regiospecifieke moderatieregimes, is dat de vrijheid van meningsuiting wereldwijd wordt beperkt en niet alleen in Europa.
De DSA heeft de weg vrijgemaakt voor willekeurige censuur.
In deze blogOp 5 september 2023, kort nadat de Digital Services Act (DSA) van toepassing werd verklaard op "zeer grote online platforms" (VLOP's), waarschuwde ik dat "het netto-effect van de wet zou zijn dat er een bijna onweerstaanbare druk op socialemediaplatforms zou worden uitgeoefend om het 'tegen-desinformatie'-spel te spelen op een manier die de goedkeuring van de auditors van de Commissie zou wegdragen, en zo hoge boetes te vermijden." En volgens dit rapport is dat ook gebeurd.
We hoeven het tussentijdse rapport van de Justitiële Commissie van het Huis van Afgevaardigden niet te lezen om te begrijpen dat de formulering van de Wet op de digitale dienstverlening Dit geeft de Europese Commissie enorme discretionaire bevoegdheden bij het toezicht op het contentmoderatiebeleid van platforms. De wet legt online platforms namelijk zware "zorgvuldigheidsverplichtingen" op om vaag gedefinieerde "systemische risico's" te "beperken", waaronder risico's met betrekking tot "desinformatie" en de gevolgen voor het "maatschappelijke debat" en verkiezingsprocessen.
De wet zelf laat aanzienlijke ruimte voor interpretatie over hoe de Europese Commissie en haar auditors "systemische risico's" zoals desinformatie, bedreigingen voor het "burgerlijk debat" en haatzaaiende taal zullen beoordelen, en hoe zij de adequaatheid van de maatregelen van dienstverleners om deze risico's te beperken zullen evalueren. Deze onduidelijkheid geeft de handhavers van de wet een ruime discretionaire bevoegdheid om deze naar eigen inzicht te interpreteren. De Commissie beschikt op grond van de DSA over onderzoeks- en handhavingsbevoegdheden, waaronder de mogelijkheid om boetes op te leggen tot 6% van de wereldwijde jaaromzet van een platform bij niet-naleving.
Het 160 pagina's tellende rapport beargumenteert overtuigend dat de Digital Services Act in feite het hoogtepunt is van een tien jaar durende campagne om de Europese Commissie steeds meer macht te geven over het contentmoderatiebeleid van online platforms. De vele wendingen in deze campagne, waaronder eerdere "vrijwillige" gedragscodes die door EU-instellingen werden gecoördineerd, worden in het rapport beschreven. verslag.
Hier wil ik me uitsluitend richten op wat het rapport beschrijft als enkele van de wrange vruchten van de Digital Services Act, namelijk de censuurmaatregelen die worden uitgevoerd onder de toezichtsmechanismen ervan. Het rapport concentreert zich overwegend op de interacties tussen de Europese Commissie en TikTok, en ervan uitgaande dat de ondersteunende documenten kunnen worden geverifieerd, geeft het ons een verontrustend beeld van een diepgeworteld censuurregime dat volledig ondoorzichtig is voor de gemiddelde burger. Dit is slechts het topje van de ijsberg. Wie weet wat er nog meer aan het licht zou komen als een onderzoeker toegang zou krijgen tot soortgelijk bewijsmateriaal op andere platforms zoals Meta, YouTube en LinkedIn.
Hoe DSA-toezicht in de praktijk werkt
De controlemechanismen van EU-functionarissen op het moderatiebeleid van platforms, zoals beschreven in het rapport, volgen een vast patroon: de Europese Commissie zelf, of nationale toezichthouders die zijn aangewezen in het kader van de DSA (in elke lidstaat bekend als "Digital Services Coordinators"), ondervragen platforms over hun "risicobeperkende" maatregelen met betrekking tot een specifiek onderwerp (bijvoorbeeld vaccins, verkiezingsdesinformatie, haatzaaiende taal of de oorlog in Oekraïne), schriftelijk of persoonlijk, en vragen om documentatie waarin de genomen of geplande stappen worden beschreven. Platforms dienen vervolgens rapporten in waarin hun inspanningen op het gebied van naleving en plannen om hun risicobeperkende strategieën te verbeteren worden beschreven, waarna de Commissie feedback kan geven of aanvullende maatregelen kan eisen. Het rapport van de House Judiciary Committee beschrijft veel van deze uitwisselingen op plausibele wijze als een vorm van druk op platforms om hun moderatie-inspanningen uit te breiden om mogelijke sancties te voorkomen.
Richtlijnen voor de verkiezingen van 2024
Maar het gaat in dit rapport niet alleen om een algemene uitbreiding van de omvang van de moderatie: het gaat ook om eenzijdige beïnvloeding van de politieke en ideologische toon van de moderatieregels. De Commissie houdt immers een 'scorekaart' bij van het moderatiebeleid van Big Tech, waarbij ze deels vertrouwt op haar eigen leger van 'vertrouwde flaggers”, vaak afkomstig van linkse ngo's, en is zelf niet ideologisch of politiek neutraal. Het is dan ook geen verrassing dat het resultaat van een dergelijk proces de beperking is van inhoud die zeer kritisch staat tegenover het progressief-linkse/technocratische beleid en de ideologische standpunten van de Europese Commissie.
Een goed voorbeeld is het Verkiezingsrichtlijnen In april 2024, voorafgaand aan de verkiezingen voor het Europees Parlement, heeft de Europese Commissie een richtlijn uitgevaardigd waarin platformen worden aangespoord om "hun risicobeperkende maatregelen bij te werken, de prominentie van desinformatie (inclusief 'gendergerelateerde desinformatie') te verminderen, samen te werken met factcheckers en maatregelen te ontwikkelen om de weerbaarheid tegen 'desinformatie'-verhalen te vergroten". De Commissie nodigde Apple, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, Wikimedia, X en YouTube uit voor een "rondetafelgesprek over verkiezingsgereedheid" en herinnerde hen eraan dat zij "actief toezicht houdt" op de naleving van de verkiezingsverplichtingen onder de Digital Services Act (DSA) en "handhavingsmaatregelen zal nemen met betrekking tot de verkiezingen".
De Politia Militar hield zelfs tijdens de pre-carnaval festiviteiten de zaken al nauwlettend in de gaten. Verkiezingsrichtlijnen Ze maakten geen deel uit van de Digital Services Act en waren ook geen bindende wetgeving. Sterker nog, ze werden publiekelijk gepresenteerd als richtlijnen en aanbevelingen in plaats van juridisch bindende verplichtingen. Het tussentijdse rapport van de House Judiciary Committee beweert echter dat Prabhat Agarwal, die in het rapport wordt genoemd als een hoge functionaris betrokken bij de handhaving van de DSA, tijdens een rondetafelgesprek van Meta over de DSA-verkiezingsrichtlijnen op 1 maart 2024, "achter gesloten deuren" de richtlijnen omschreef als een "minimum" voor naleving van de DSA. Hij stelde dat als platforms ervan afweken, ze "alternatieve maatregelen moesten nemen die gelijkwaardig of beter waren". Hoe vreemd een dergelijke uitspraak ook mag lijken, ze is consistent met het idee van de DSA dat grote digitale platforms "zorgvuldigheidsplicht" hebben om redelijke maatregelen te nemen om platformrisico's te beperken. Als de handhaver van een vage verplichting een waterdichte manier biedt om eraan te voldoen – zelfs als het wordt gepresenteerd als een "richtlijn" – wordt die "richtlijn" een aantrekkelijke manier om sancties te ontlopen.
Bewijs van naleving van platformregels: het geval van TikTok
Voldeden de platformen aan de richtlijnen van de Commissie voor de verkiezingen van 2024? Op basis van interne communicatie tussen de platformen en uitwisselingen tussen de platformen en EU-functionarissen, die in het rapport zijn weergegeven of samengevat, lijkt het erop dat ten minste sommige De platformen hebben hun beleid hierop aangepast. Het rapport van de commissie vermeldt met name dat TikTok de Europese Commissie heeft laten weten dat het meer dan 45,000 berichten met desinformatie, waaronder politieke uitingen over onderwerpen als migratie, klimaatverandering, veiligheid en defensie, en LGBTQ-rechten, heeft verwijderd of de toegang ertoe heeft beperkt in aanloop naar de EU-verkiezingen van 2024.
Een samenvatting van de update van de TikTok-communityrichtlijnen van 20 maart 2024, die in het rapport wordt aangehaald, vermeldt "updates" van de communityrichtlijnen van TikTok, "voornamelijk gerelateerd aan naleving van de Digital Services Act", waaronder beleidsmaatregelen met betrekking tot "het marginaliseren van meningsuiting en gedrag", "desinformatie die het vertrouwen in de integriteit van het democratische proces ondermijnt" en "het verkeerd voorstellen van gezaghebbende informatie, zoals wetenschappelijke gegevens". Het belangrijkste doel van deze wijzigingen was, zoals TikTok zelf erkent, te voldoen aan de DSA. Het betreft geen beleidswijzigingen die zijn vastgesteld op basis van onafhankelijke criteria.
Het is nu vrij duidelijk, als je de nieuwe TikTok-richtlijnen die in 2024 zijn ingevoerd om te voldoen aan de DSA-wetgeving te bekijken, dat ze in principe alles kunnen betekenen wat je wilt. willen wat ze betekenen. Politieke discussies zijn bijvoorbeeld inherent conflictueus, waardoor vrijwel elke vijandige opmerking kan worden opgevat als "het marginaliseren van meningsuiting en gedrag". Evenzo, als iemand te goeder trouw kritiek levert op de "integriteit van het democratische proces", ondermijnt diegene dan het vertrouwen daarin? En wat te denken van de "verkeerde voorstelling" van "gezaghebbende informatie"? Wetenschap kan alleen functioneren als zogenaamde "gezaghebbende" wetenschappelijke beweringen niet kunstmatig worden afgeschermd van scherpe kritiek.
Subtiele maar reële regelgevingsdruk
Het is waar dat de specifieke contouren van het censuurregime van TikTok waren niet rechtstreeks opgelegd door de Europese Commissie. De Commissie is over het algemeen niet bevoegd om specifieke berichten te laten verwijderen. Deze berichten zijn echter duidelijk opgesteld onder druk van het DSA-regelgevingskader en de handhavers daarvan. TikTok moest, bij het ontwikkelen van maatregelen om "risico's te beperken" met het oog op naleving van de DSA, op de een of andere manier anticiperen op de standpunten van toezichthouders met betrekking tot vaag gedefinieerde risico's zoals "haatspraak", "desinformatie" en schade aan het "maatschappelijke debat".
Je vraagt je misschien af: als deze risicocategorieën zo vaag gedefinieerd zijn, hoe zou TikTok dan zijn beleid zo kunnen aanpassen dat het de goedkeuring van de EU-toezichthouders krijgt? Het antwoord is niet ingewikkeld. Wanneer er honderden miljoenen dollars op het spel staan (sancties tot 6% van de jaarlijkse wereldwijde omzet van een platform), zou een slim en goed gefinancierd bedrijf er een punt van maken om "tussen de regels te lezen" en de politieke en ideologische voorkeuren van de EU-toezichthouders te doorgronden. Ze zouden een gefundeerde inschatting kunnen maken van welke vormen van censuur de Commissie welgevallig zouden zijn.
De Commissie heeft zich bijvoorbeeld consequent aan de kant van de vaccinindustrie en officiële gezondheidsorganisaties zoals de WHO geschaard. De Commissie vertegenwoordigt een breed links-progressief perspectief op genderkwesties, haatzaaien en milieuproblemen. Het is eveneens duidelijk dat de Commissie geïnteresseerd is in het onderdrukken van pro-Russische oorlogspropaganda. Dus zelfs als de DSA geen uitputtende lijst bevat van argumenten die door censuur moeten worden aangepakt, maken de geschiedenis van de wetgevingsinitiatieven en eerdere verklaringen van de Commissie zeer duidelijk welke zaken zij als "systemische risico's" beschouwen. Deze inzichten worden ongetwijfeld verder verfijnd tijdens de openbare en besloten bijeenkomsten met EU-functionarissen waar platformbestuurders regelmatig voor worden uitgenodigd.
Markeren van “problematische” Slowaakse TikTok-accounts
Als het rapport van het Huis van Afgevaardigden klopt, lijkt het erop dat EU-functionarissen er niet voor terugdeinzen om direct in te grijpen en een platform op te dragen een specifiek account of een reeks accounts die als 'problematisch' worden beschouwd, te onderzoeken. Het rapport stelt dat de Commissie in september 2023, vier dagen voor de Slowaakse parlementsverkiezingen, een spreadsheet met lijsten van 'problematische Slowaakse TikTok-accounts' naar TikTok stuurde met het verzoek deze te onderzoeken. De spreadsheet zou minstens 63 accounts hebben bevat, met een aantal volgers variërend van 1,000 tot 120,000. Volgens het rapport van de justitiecommissie van het Huis van Afgevaardigden...
In het samenvattende rapport van TikTok na de verkiezingen werd vermeld dat 19 van deze accounts direct op verzoek van de Commissie waren geblokkeerd – vijf daarvan vanwege het "verspreiden van haat". Zestien accounts die door de Europese Commissie waren aangemerkt, hadden "geen of zeer weinig overtredingen", waaronder "satirische accounts gericht op politiek". Andere accounts werden op de "watchlist" van TikTok geplaatst.
Patstelling tussen de Europese Commissie en X
Er is één socialemediagigant die de regelgevende ambities van de Europese Commissie opvallend genoeg heeft getrotseerd. In mei 2023 trok X zich terug uit de "vrijwillige" gedragscode tegen desinformatie, de voorloper van de DSA, en voert het bedrijf kennelijk niet het soort moderatiebeleid in dat de Commissie onder de DSA-wetgeving eist. Daardoor heeft de Commissie X in het vizier. Ze heeft X een forse boete van € 120 miljoen opgelegd wegens het niet naleven van de wet – hoewel merkwaardig genoeg gebaseerd op wat tamelijk zeldzame overtredingen lijken te zijn, zoals het niet respecteren van het oude blauwe vinkje van Twitter of het opslaan van informatie van publiek belang in een verkeerd formaat. Dit is de eerste boete die is opgelegd onder de DSA.
Rapport lijkt de schadelijke gevolgen van DSA voor de vrijheid van meningsuiting te bevestigen
Ik heb nog maar net de oppervlakte van dit rapport aangeraakt. Maar hopelijk is het patroon al duidelijk genoeg: als dit rapport accuraat is – en als de geciteerde communicatie correct is geverifieerd – dan suggereert het dat de DSA een bevoorrechte groep overheidsfunctionarissen de macht geeft om, via uitgebreide toezichtsmechanismen waarvan de logica voor de gemiddelde burger ondoorgrondelijk is, te bepalen welke informatie en argumentatie geschikt zijn voor het publiek en welke informatie de burgers nooit mogen bereiken.
We hadden dit rapport eigenlijk niet nodig om te beseffen dat de "progressieve" politieke elites van de Europese Unie openlijk een complex en gelaagd censuurapparaat aan het opzetten zijn. Dat blijkt immers al duidelijk genoeg uit de tekst van het rapport. Wet op de digitale dienstverlening zelf. Tot nu toe was onze kennis van dit regime echter vrij juridisch van aard, meer gebaseerd op de logische implicaties van de bewoordingen van de DSA en de controlemechanismen die deze creëert, dan op hard bewijs van de toepassing ervan.
Dit rapport bevat mogelijk zeer belastend bewijsmateriaal over een reeks mechanismen waarmee EU-functionarissen de Digital Services Act (DSA) lijken te hebben ingezet om grote technologiebedrijven onder druk te zetten de politieke meningsuiting van Europeanen op verregaande wijze te beperken, op straffe van zware economische sancties. Bovendien zijn deze beperkingen, vanwege de technische en financiële uitdagingen van de steeds verdergaande platformregelgeving, in de praktijk vaak ook buiten Europa toegepast.
Nu deze beschuldigingen en het bijbehorende bewijsmateriaal openbaar zijn, is de Europese Commissie het aan ons allen verplicht om uitleg te geven. Tot nu toe heeft Thomas Reigner, woordvoerder digitale zaken van de EU, alleen gezegd: "Over de laatste beschuldigingen van censuur. Pure onzin. Volledig ongegrond." Suggeert Reigner hiermee dat een commissie van het Amerikaanse Huis van Afgevaardigden e-mails en notulen van vergaderingen tussen EU-functionarissen en beheerders van digitale platforms volledig heeft verzonnen?
Ik wacht met grote belangstelling een serieuzere reactie van de Europese Commissie af.
Heruitgegeven van de auteur subgroep
-
David Thunder is onderzoeker en docent aan het Instituut voor Cultuur en Samenleving van de Universiteit van Navarra in Pamplona, Spanje, en ontvangt de prestigieuze onderzoeksbeurs Ramón y Cajal (2017-2021, verlengd tot en met 2023), toegekend door de Spaanse regering ter ondersteuning van uitstekende onderzoeksactiviteiten. Voorafgaand aan zijn benoeming aan de Universiteit van Navarra bekleedde hij verschillende onderzoeks- en onderwijsfuncties in de Verenigde Staten, waaronder gastdocent aan Bucknell en Villanova, en postdoctoraal onderzoeksmedewerker in het James Madison-programma van Princeton University. Dr. Thunder behaalde zijn BA en MA in filosofie aan University College Dublin, en zijn Ph.D. in politieke wetenschappen aan de Universiteit van Notre Dame.
Bekijk alle berichten