Czy AI zabija Wikipedię? Analiza największego wyzwania w historii wolnej wiedzy
Wikipedia kontra AI: Zmierzch wolnej wiedzy czy szansa na ewolucję?
Relacja między Wikipedia a Sztuczną Inteligencją przypomina trochę historię starego mistrza i jego genialnego, ale zbuntowanego ucznia. Uczeń czerpał całą wiedzę od mistrza, po czym otworzył własną, błyskawiczną szkołę tuż za rogiem i odbiera mu wszystkich klientów. Czy to koniec ery mistrza, czy może szansa, by nauczył się czegoś od swojego cyfrowego potomka?
Oto fakty. Sytuacja jest znacznie bardziej skomplikowana, niż się wydaje.
Paradoks spadających statystyk: Dlaczego porzucamy Wikipedię na rzecz AI, która się na niej uczy?
To jeden z największych paradoksów współczesnego internetu. Każdy z nas to robi: zamiast wpisać hasło w wyszukiwarce i kliknąć link do Wikipedii, zadajemy pytanie bezpośrednio chatbotowi AI. Oczekujemy skondensowanej, gotowej odpowiedzi. I ją dostajemy.
Problem w tym, że ta odpowiedź niemal zawsze ma swoje korzenie w... Wikipedii. Do tej pory praktycznie każdy duży model językowy był trenowany na jej gigantycznych zasobach, które są niemal zawsze największym pojedynczym źródłem danych w ich diecie. Jednocześnie Fundacja Wikimedia bije na alarm, ponieważ, podczas gdy armia botów non-stop skanuje encyklopedię, liczba ludzkich odwiedzających drastycznie maleje. Karmimy AI, a potem sami idziemy do niej po wiedzę, omijając źródło.
Halucynacje i 'zapaść modelu': Jakie są ukryte zagrożenia dla wiarygodności encyklopedii?
Wygoda ma swoją cenę, a w przypadku AI rachunek może być wysoki. Pierwsze zagrożenie to osławione "halucynacje". Modele językowe nie "wiedzą" – one statystycznie zgadują, jakie słowo powinno pojawić się jako następne. Czasem w tym procesie zmyślają fakty, daty, a nawet całe biografie z niewiarygodną pewnością siebie. Dla projektu opartego na weryfikowalności, to jak wpuszczenie do biblioteki kogoś, kto losowo dopisuje zdania w książkach.
Drugie, bardziej podstępne niebezpieczeństwo, to tzw. "zapaść modelu" (model collapse). Wyobraź sobie, że kserujesz obrazek, a potem robisz ksero z tego ksera, i tak w kółko. Każda kolejna kopia jest gorsza od poprzedniej. Badania wykazały, że modele AI trenowane na treściach stworzonych przez inne modele stają się wymiernie gorsze i zapominają to, czego się nauczyły. Jeśli Wikipedia zaczęłaby bezkrytycznie przyjmować treści od AI, mogłaby zatruć własne źródło, z którego pije cały cyfrowy świat.
Czy Wikipedia może 'oswoić' AI i wykorzystać ją do własnych celów?
Mimo tych zagrożeń, przyszłość nie musi być ponura. Zamiast postrzegać Sztuczną Inteligencję jako konkurenta, Wikipedia może potraktować ją jako potężne narzędzie. Nie chodzi o to, by boty pisały artykuły, ale by pomagały ludziom pisać je lepiej i szybciej.
Pomyśl o AI jako o najtęższym na świecie asystencie redaktora. Mógłby on przeczesywać miliony źródeł w poszukiwaniu cytatów, identyfikować niespójności w artykułach, flagować akty wandalizmu w ciągu milisekund czy pomagać w tłumaczeniu niszowych haseł na inne języki. Kluczowe jest jednak to, że ostateczna decyzja i odpowiedzialność zawsze pozostają w rękach człowieka. To nie zmierzch, to może być ewolucja – pod warunkiem, że to człowiek będzie trzymał smycz.
Comments ()