Wydawnictwa toną w AI-śmieciach. I nie mają na to rady
W 2023 roku Clarkesworld – jeden z najważniejszych magazynów science fiction – zamknął nabór tekstów. Powód? Redakcja dostała lawinę opowiadań wygenerowanych przez AI. Ktoś wklejał wytyczne redakcyjne do ChatGPT i wysyłał wynik. Setki razy.
To nie jednostkowy incydent.
To symptom czegoś większego. Instytucje – wydawnictwa, uniwersytety, portale jobowe – toną w AI-generowanym szumie. I nie nadążają.
Problem nie polega na tym, że AI pisze źle. Problem w tym, że pisze wystarczająco dobrze i wystarczająco szybko, by zalać każdy system weryfikacji.
Redaktorzy Clarkesworld opisywali to jako "tsunami generycznych tekstów". Opowiadania brzmiały poprawnie. Miały strukturę. Dialogi. Ale — i tu jest haczyk — wszystkie były takie same. Jakby ktoś przepuszczał identyczne instrukcje przez ten sam prompt.
Bo tak właśnie było.
Uniwersytety widzą podobny wzorzec w aplikacjach na studia. Setki listów motywacyjnych z identycznymi frazami. "Zawsze marzyłem o.." "Moja pasja do.." "Wierzę, że ta uczelnia.." Wszystko brzmi sensownie. Nic nie brzmi prawdziwie.
Jeden z rekruterów z brytyjskiego uniwersytetu powiedział wprost: "Przestaliśmy ufać tekstom. Teraz liczy się tylko rozmowa."
Instytucje próbują się bronić. Wdrażają detektory AI. Zaostrzają procedury. Wymagają dodatkowych weryfikacji.
I przegrywają.
Detektory AI mają fundamentalny problem: nie potrafią odróżnić "tekstu wygenerowanego" od "tekstu napisanego przez człowieka w sposób generyczny". Bo granica jest płynna. Ktoś, kto pisze nudno i schematycznie, wygląda jak bot. Ktoś, kto używa AI inteligentnie i edytuje wynik, wygląda jak człowiek.
Efekt? Fałszywe pozytywy i negatywy. System karze uczciwych, a przepuszcza oszustów.
Jeden z edytorów literackich opisał to jako "wyścig zbrojeń, którego nie da się wygrać". Każdy nowy filtr jest obchodzony w ciągu tygodni. Każda nowa zasada rodzi nową lukę.
A tymczasem lawina rośnie.
Redaktorzy, rekruterzy, wykładowcy — wszyscy opisują to samo: wypalenie.
Kiedy 90% tego, co czytasz, to generyczny szum, tracisz zdolność rozpoznawania tego, co autentyczne. Wszystko zaczyna wyglądać podejrzanie. Kwestionujesz nawet dobre teksty.
"Przestałam ufać pierwszemu wrażeniu" — mówi jedna z redaktorek. "Nawet jak coś brzmi dobrze, zakładam, że to AI. I szukam dowodów, że to człowiek."
To odwrócenie domniemania niewinności. I to zabija motywację.
Bo po co się starać, skoro Twój tekst zostanie potraktowany jak podejrzany, dopóki nie udowodnisz czegoś więcej?
Kiedyś spam był kosztowny. Napisanie 100 listów motywacyjnych? Godziny pracy. Napisanie 100 opowiadań? Miesiące.
Teraz? Minuty.
Koszt generowania tekstu spadł praktycznie do zera. A to zmienia całą równowagę. Kiedyś spam był domeną desperatów. Teraz to racjonalna strategia dla każdego, kto chce zwiększyć swoje szanse.
Aplikujesz na studia? Wyślij 50 aplikacji zamiast 5. Każda wygenerowana przez AI, lekko zmodyfikowana. Statystycznie: zwiększasz swoje szanse.
Chcesz opublikować opowiadanie? Wyślij do 100 magazynów jednocześnie. Ktoś w końcu przepuści.
To nie jest "oszustwo". To optymalizacja. I właśnie dlatego jest nie do zatrzymania.
Najbardziej niepokojące pytanie brzmi: co się dzieje z systemami opartymi na zaufaniu, gdy to zaufanie znika?
Clarkesworld zamknął nabór. Inne magazyny literackie wprowadzają opłaty za zgłoszenia — żeby zniechęcić spamerów. Uniwersytety rezygnują z esejów aplikacyjnych. Firmy przestają czytać CV.
Każda instytucja buduje własne bariery. I każda bariera wyklucza kogoś uczciwego, kto nie ma czasu, pieniędzy lub umiejętności, by ją przeskoczyć.
To nie jest "AI zabija kreatywność". To jest "AI zabija systemy weryfikacji". I nikt nie wie, co przyjdzie w zamian.
Niektóre instytucje eksperymentują. Wprowadzają rozmowy wideo zamiast tekstów. Live coding sessions zamiast portfolio. Zadania do wykonania na czas, bez możliwości konsultacji z AI.
Działa to tylko w małej skali. Nie da się przeprowadzić 10 tysięcy rozmów wideo. Nie da się zweryfikować każdej aplikacji ręcznie.
Prawda jest taka: nie ma łatwego rozwiązania. Bo problem nie jest techniczny. Jest ekonomiczny.
Dopóki koszt generowania śmieci będzie niższy niż koszt ich filtrowania, śmieci będzie przybywać.
I instytucje będą tonąć.
Jeśli aplikujesz gdziekolwiek — na studia, do pracy, do publikacji — załóż, że Twój tekst będzie traktowany podejrzliwie. Bo będzie.
Nie wystarczy już "dobry tekst". Potrzebujesz czegoś, co krzyczy: "To napisał człowiek". Konkretów. Osobistych historii. Błędów, które żaden AI by nie popełnił.
Paradoksalnie: im bardziej starasz się brzmieć "profesjonalnie" i "poprawnie", tym bardziej brzmisz jak bot.
Autentyczność stała się walutą. I jedyną obroną.