Ik blog nog, mensen.
Nou ja.
Mijn laatste bericht was uit juni, dus dat is niet om over naar huis te schrijven/bloggen.
En dat terwijl ik mezelf net een collega die van schrijven houdt hoorde aanraden om te gaan bloggen.
Niemand blogt nog, volgens mij. Stom is dat.
Helemaal omdat we, als we niet oppassen, een internet hebben dat vol staat met door machines gegenereerde teksten. Afgeleid van wat er ooit op dit zelfde internet stond.
Het internet als grote echoput
Nog even en het hele internet bestaat uit afgeleides van afgeleides van afgeleides van originele teksten (lees bij ’teksten’: beeld en audio). Het wordt makkelijker en makkelijker om teksten voor websites (of emails, of podcats, of muziek, of afbeeldingen) te genereren. Met een beetje slim scriptje kun je zo hele websites genereren, volg met teksten en informatie waar je nauwelijks een mens aan te pas hebt laten komen.
Dat is een serieus probleem. En niet alleen omdat al die systemen die we vervolgens traininen op de teksten op het internet dus eigenlijk getraind worden op teksten die al niet meer door mensen zijn geschreven met alle gevolgen vandien. Maar deze ‘model collapse’ (hier staat het uitgelegd, met de disclaimer dat ik de website niet ken) is voor mij dan nog niet het grootste probleem (unpopular opinion).
Ik vind het als ervaringsdeskundige een probleem dat:
- De lol van een lange adem bij je website of blog niet meer zal bestaan
- We niet meer weten wat nog door mensen is geschreven of op zijn minst gecontroleerd door hen (iemand stuurde me een voorbeeld van een artikel op een internationale nieuwssite waar je, als je goed las, aan zag dat het niet klopte en niet door mensen was geschreven)
- We dus ook niet meer weten of informatie te vertrouwen is
- Schrijven online steeds minder economisch of mentaal rendabel wordt (als het dan toch alleen maar door machines wordt gebruikt om zichzelf te voeden en tegen betaling output te geven).
Wat maakt het je uit?
Omdat dit tegenwoordig mijn werk is, nadenken over dit soort kwesties, zat ik in een mooie discussie hierover met vooraanstaande denkers. Hun insteek was: mag het volgens de wet, iemands website tijdelijk kopieren om je systeem mee te trainen en die kopie daarna weer te verwijderen? Wat zegt het auteursrecht? Waar dient het auteursrecht eigenlijk toe?
Allemaal hele slimme dingen, zeiden ze.
Maar ik kon het niet laten.
Ik begon over dit blog en hoe vreselijk irritant het is dat dit gebruikt is als input voor systemen die vervolgens verdienen aan de output EN waarvan ik niet eens zeker weet of en hoe mijn blog als input is gebruikt. En dat het dan ook nog kan zijn dat die output gaat concurreren met mijn originele teksten, ideeën en verhalen. ARGHHH
De rest vond het onzin. Want: het is legaal volgens het auteursrecht, dacht iemand (is nog onder discussie, trouwens, wereldwijd, dus zie dit niet als een ja of nee #disclaimer #indekken).
Ik realiseerde me dat het me als blogger niets uitmaakt of al die systemen mijn blog mogen scannen en gebruiken als trainingsdata, volgens de wet.
Mijn verontwaardiging is:
1 Dat ik er niets over te zeggen heb (gehad)
2 Dat dit gebruik van mijn blog niet overeenstemt met het doel waarmee ik mijn blog heb gepubliceerd.
Ik zit in de rare positie dat ik dit objectief moet bekijken. Of eigenlijk niet ik, gelukkig.
Ik ga er niet over.
Dit is iets van mijn collega’s, de politiek, en heel veel slimme mensen.
Ik heb er alleen gevoelens bij. 🙂
(PS ik heb niet zo’n doembeeld als beschreven in bovenstaand artikel. Ik zie heel veel voordelen van dit soort AI-modellen, voor ons allemaal. Maar de risico’s, die verdienen ook aandacht. Krijgen ze gelukkig ook.)
(PS PS Volgens mij heb ik hier eerder over geblogd. Zo ja, vergeef me. Het zit me hoog. Ik zal er over op houden!)
(PSPSPS tegen de trend in, blijf ik gewoon bloggen, zelf, zonder machine! Ik stop pas als een machine denkt te kunnen bewijzen dat mijn blog met machines is gemaakt.)
- Afscheid van een digitaal verleden - 30 december 2024
- Game on - 30 december 2024
- 50 worden: het alternatief is minder - 11 augustus 2024
Rosalinde zegt
Ik denk dat een belangrijk verschil bij automatisch (door AI) gegenereerde teksten en door mensen geschreven teksten het gevoel is. De verbinding die je ervaart met de persoon die het stuk geschreven heeft. Als je weet of merkt dat een tekst door AI geschreven is, voelt het anders. Het voelt (voor mij althans) minder echt. Minder persoonlijk.
En dat is misschien helemaal oké als het om een informatieve tekst gaat bij bijvoorbeeld het googelen naar een zakelijke vraag of een stappenplan hoe iets werkt. Maar juist teksten die door mensen geschreven zijn vanuit eigen ervaringen en met persoonlijke bespiegelingen; dat zijn teksten die raken. Die je iets laten voelen. Die je uitnodigen om erop te reageren.
Dat zie ik AI nog niet zo snel doen. Nog een reden waarom het niet wenselijk is dat straks het grootste deel van het internet uit afgeleide teksten bestaat waar geen mens meer aan te pas komt. Of ben ik nu heel naïef?
Zo simpel is dan geluk zegt
Eigenlijk heb ik hier nog nooit over nagedacht. Ergens wel een beetje eng dat AI het internet eigenlijk zo zou kunnen ‘overnemen’.
Elvira zegt
Ha, fijn om je overpeinzingen weer te lezen! De meerwaarde van de schrijvende mens is wat mij betreft onverslaanbaar 🙂
Ximaar zegt
Wat mij betreft wordt AI-opvoeding bepaald door het robots.txt bestandje. Daarmee kan je nu voorkomen dat je zoekmachines op visite krijgt. Zou AI voorlopig aan toegevoegd mogen worden. En anders zou er een aparte regel voor AI in robots.txt kunnen komen.
Zelf zet ik alleen dingen online die door iedereen gelezen en/of bekeken mogen worden. Als dat indirect via AI gebeurd, dan zit ik daar niet mee.
Ik las ook dat er problemen waren met RSS. Weet niet of dat klopt. Maar volgens mij kunnen bloggers dat probleem zelf ondervangen door alleen de eerste 50 woorden ope bericht via RSS aan te bieden.
Zelf zit ik er meer mee dat AI erg veel stroom vreet.
Elja Daae zegt
Ik heb dat nog niet gezien, over dat probleem met RSS. Ik krijg mijn eigen blogs wel binnen via RSS (in de e-mail).
Het is de hoogste tijd voor een robots.txt, helemaal eens, moet ik doen
Ximaar zegt
Kwam deze robots-link tegen:
https://neil-clarke.com/block-the-bots-that-feed-ai-models-by-scraping-your-website/
Paul zegt
Welkom terug van nooit weggeweest, Elja! Je raakt een snaar. Ook voor mijn gevoel mag je van het auteursrecht een site niet gebruiken als input voor AI. Maar ja, mijn gevoel.
Een ander punt is dat ik wil dat van een blogger verwacht dat zijn of haar blogs doorleefd zijn, gestoeld op echte levenservaring. Daarom lees ik ook vooral blogs waar ik de schrijvers al jaren van ken.
Elja Daae zegt
Ja, je verwacht gewoon dat het echt is. Maar tegelijkertijd zou het leuk zijn als er nieuwe bloggers blijven opstaan! Het begint een vergeten kunst te worden 🙂