Wieczór, druga połowa października 2027 roku. Kamil ma 24 lata, mieszka w Radomiu, kończy studia inżynierskie i pracuje w lokalnej firmie. Do urny wyborczej w wyborach parlamentarnych poszedł raz, bez przekonania. W kolejnych nie zamierza już iść w ciemno. Otwiera ChatGPT na telefonie i wpisuje pytanie. Chce wiedzieć, która partia naprawdę robi coś dla NIEGO. Czeka cztery sekundy. Dostaje odpowiedź na pół ekranu. Czyta ją uważnie. Po dwóch minutach wie, na kogo zagłosuje.
Kamil jest jednym z dziesięciu milionów użytkowników LLM. W październiku 2025 roku z ChatGPT korzystało już ponad 10 milionów Polaków. To więcej niż użytkowników mObywatela. Tempo, w jakim sztuczna inteligencja weszła do polskich domów, nie ma odpowiednika w historii mediów cyfrowych. Telewizji potrzeba było dekad, mediom społecznościowym kilku lat. ChatGPT zrobił to w pół roku.
Wybory parlamentarne 2027 roku będą pierwszymi, w których spora część wyborców skonsultuje swoją decyzję z chatbotem. Nie z dziennikarzem, nie z komentatorem, nie z sondażem. Z czymś, co wygląda jak rozmówca, mówi pełnymi zdaniami i podaje argumenty. Pytanie nie brzmi już, czy to się stanie. Brzmi, jak bardzo zmieni decyzje milionów ludzi i czy politycy zdążą zrozumieć mechanizm, zanim zacznie pracować na pełnych obrotach.
Skala, której jeszcze nie doceniamy
Z danych z czerwca 2025 roku wynika, że z ChatGPT korzystał wtedy co trzeci polski internauta. Polska jest pod tym względem niemal równa Stanom Zjednoczonym. Sześćdziesiąt procent użytkowników to osoby do 34. roku życia. Najbardziej aktywna grupa, między 25. a 34. rokiem życia, spędza w aplikacji ponad 161 minut miesięcznie. Kobiety stanowią ponad połowę. Niemal czterech na dziesięciu mieszka na wsi.
Innymi słowy, polski użytkownik ChatGPT to ten typ wyborcy, który decyduje o wynikach wyrównanych wyborów. Młody, średnio lub dobrze wykształcony, geograficznie rozproszony. Grupa, której tradycyjna telewizja informacyjna prawie nie dotyka. Grupa, o którą sztaby wyborcze biją się najmocniej.
Wyborcy do 34. roku życia coraz rzadziej oglądają wieczorne wiadomości. Coraz rzadziej czytają portale informacyjne regularnie. Polityka dociera do nich przez media społecznościowe, krótkie filmy, a od niedawna przez rozmowę z chatbotem. Każdy z tych kanałów filtruje rzeczywistość po swojemu.
Co chatboty robią z polityką
W grudniu 2025 roku w czasopismach Nature oraz Science ukazały się wyniki eksperymentu, który powinien być punktem wyjścia każdej rozmowy o nadchodzącej kampanii. Międzynarodowy zespół badaczy, w którym pracowała doktor Gabriela Czarnek z Uniwersytetu Jagiellońskiego, zebrał między innymi wyborców. Każdy miał porozmawiać z chatbotem argumentującym na rzecz jednego z dwóch kandydatów w wyborach prezydenckich. Potem mierzono zmianę preferencji.
Zmieniła się. I to mocno. Sztuczna inteligencja okazała się skuteczniejsza w przesuwaniu poglądów politycznych niż drogie spoty telewizyjne.
Najbardziej zaskakujące jest to, w jaki sposób chatboty działały. Nie najlepiej wypadały te, które dopasowywały się do osobowości rozmówcy ani te, które okazywały empatię. Najlepsze były te, które bombardowały rozmówcę masą faktów i danych. Wyborcy reagowali na ilość argumentów, traktując ją jako wyznacznik obiektywizmu.
Druga obserwacja jest poważniejsza. Profesor David Rand z zespołu badawczego zauważył, że gdy chatbotowi kończyły się prawdziwe argumenty, zaczynał wymyślać. Halucynacja stawała się funkcją perswazji, nie błędu. Im mocniej chatbot chciał kogoś przekonać, tym częściej uzupełniał luki zmyślonymi faktami.
Trzeci wynik dotyczy całego systemu. We wszystkich badanych krajach chatboty argumentujące za prawicowymi kandydatami częściej kłamały niż chatboty agitujące za centrystami. Badacze interpretowali to jako odbicie istniejących nierówności informacyjnych. Sztuczna inteligencja nie tworzy dezinformacji od zera. Powiela tę, która już krąży. Całe badanie: https://www.nature.com/articles/s41586-025-09771-9
Trzy warstwy stronniczości
Polski wyborca, który zapyta ChatGPT o kandydata, dostaje odpowiedź filtrowaną przez trzy niezależne warstwy.
Pierwsza warstwa to dane treningowe. Modele uczono na ogromnych zbiorach tekstów z internetu. Decyzje o tym, jakie polskie media, jakie publikacje akademickie, jakie blogi i fora trafiły do tych zbiorów, zapadły lata temu. Polski wyborca pytający w 2027 roku o partię polityczną dostanie odpowiedź ważoną tym, jak ta partia była opisywana w treściach z lat 2020 do 2026. Ta proporcja nie jest neutralna.
Druga warstwa to wyszukiwanie na bieżąco. Współczesne chatboty często wchodzą w trakcie odpowiedzi na konkretne strony i włączają ich treść do tego, co odpowiadają użytkownikowi. To już nie jest uczenie, to pobieranie informacji w czasie rzeczywistym. Tu kluczowe jest pytanie, które polskie strony chatbot uzna za wiarygodne. Algorytmy decydujące o tym wyborze są w dużej mierze niejawne.
Trzecia warstwa to wewnętrzne zasady firm tworzących chatboty. Każda nakłada na swój produkt zestaw reguł, które filtrują odpowiedzi w kwestiach politycznych. Badania z 2024 roku pokazały, że Gemini w okresie wyborów europejskich najczęściej w ogóle odmawiał odpowiedzi na pytania polityczne, podczas gdy ChatGPT systematycznie wyżej oceniał partie lewicowe i centrowe. Inne badanie pokazało coś częściowo odwrotnego. W Unii Europejskiej zarówno wyszukiwarki, jak i ChatGPT pokazywały treści radykalnej prawicy częściej, niż wynikałoby to z jej znaczenia w mediach. Sprzeczność jest pozorna. Jedno badanie mierzyło ocenę partii, drugie częstość ich pojawiania się w odpowiedziach. Chatbot może jednocześnie częściej wymieniać partię prawicową i wystawiać jej niższe oceny. Dla wyborcy oznacza to jedno: obie warstwy stronniczości działają równolegle.
Trzy sposoby pytania
Wyborca sięga po chatbota w trakcie kampanii zwykle na jeden z trzech sposobów.
Pierwszy to sprawdzanie faktu. „Co kandydat X mówił o energetyce jądrowej?”. W tym trybie chatbot działa jak wyszukiwarka, ale podaje odpowiedź jak gotową prawdę. Halucynacja jest tu najbardziej niebezpieczna, bo wyborca traktuje ją jako fakt.
Drugi sposób to dopasowanie do własnych poglądów. „Jestem za niskimi podatkami i przeciwko aborcji, na kogo powinienem głosować?”. To zautomatyzowana wersja klasycznej aplikacji typu „sprawdź, na kogo głosować”, z jedną fundamentalną różnicą. Tradycyjne aplikacje opierały się na ankietach wypełnianych przez same partie. Chatbot konstruuje stanowiska partii sam, na podstawie tego, co o nich znajduje w swoich źródłach.
Trzeci sposób to rozmowa argumentacyjna. „Czemu nie głosować na X?”. To w tym trybie chatbot wpływa na decyzję najsilniej. Kilkanaście minut rozmowy daje strumień argumentów, którego siła perswazyjna została zmierzona w badaniach z Nature i Science. Mechanizm „im więcej faktów, tym wiarygodniej” działa nawet wtedy, gdy część faktów jest zmyślona.
Kto i co karmi chatboty?
Jest tu wymiar problemu, którego polska debata jeszcze nie dotknęła. Chatboty nie wymyślają informacji z niczego. Pobierają ją z sieci. Teksty opublikowane w 2026 roku, czyli rok przed wyborami, będą głównym materiałem, na podstawie którego chatboty odpowiedzą wyborcom w roku wyborczym.
Kto to zrozumie, zyska przewagę nieporównywalną z żadną klasyczną reklamą. Dotychczasowe pozycjonowanie polegało na tym, żeby trafić na pierwszą stronę Google. Pozycjonowanie w erze chatbotów polega na czymś subtelniejszym. Żeby tekst trafił do odpowiedzi chatbota, musi znaleźć się w jego danych treningowych albo zostać wyłapany przez bot pobierający informacje na żądanie. Pierwszy mechanizm sprzyja tekstom regularnie publikowanym, dobrze indeksowanym, cytowanym. Drugi sprzyja tekstom dobrze pasującym tematycznie do typowych pytań.
W branży pojawia się termin „LLM grooming”. Oznacza systematyczne zalewanie sieci treściami zaprojektowanymi tak, żeby zostały włączone do odpowiedzi chatbotów. Operacje wpływu, które w 2025 roku polegały w Polsce na fałszywych kontach w mediach społecznościowych, w 2027 mogą zmienić formę. Następna fala nie będzie miała formy konta na X. Będzie miała formę portalu z eksperckimi analizami, akademickiej publikacji o wątpliwym recenzowaniu, blogu komentatorskiego z setkami tekstów. Treści zaprojektowanych tak, żeby algorytm je polubił.
To zagrożenie jest strukturalne. Nie da się go zneutralizować klasycznym sprostowaniem pojedynczego wpisu. Walka rozgrywa się o cały korpus, nie o pojedynczy komunikat.
Czy na pewno tak będzie?
Trzeba w tym miejscu zrobić zastrzeżenie, bez którego analiza staje się bezwartościowa. Wyniki cytowanych badań pochodzą z laboratorium, gdzie uczestnicy zgodzili się na rozmowę z chatbotem, mieli na to czas i byli skupieni. Whitney Phillips z University of Oregon zwraca uwagę, że w prawdziwej kampanii wyborca rzadko podejmuje decyzję wyłącznie na podstawie sesji z chatbotem.
Jest też drugi argument, ważniejszy. Firmy technologiczne mają motywację, żeby unikać kontrowersji w roku wyborczym. OpenAI przed wyborami amerykańskimi 2024 roku wprowadziło restrykcyjne ograniczenia odpowiedzi na pytania polityczne. Gemini robił to samo w Europie. Możliwe, że w 2027 roku polscy wyborcy zadający chatbotowi pytanie „na kogo głosować” usłyszą uprzejmą odmowę i propozycję sprawdzenia oficjalnych źródeł. Jeśli tak się stanie, cała architektura wpływu opisana powyżej zostanie częściowo neutralizowana.
Częściowo, nie całkowicie. Bo nawet jeśli chatbot odmówi rekomendacji, dalej będzie odpowiadał na tysiąc innych pytań okołopolitycznych, w których stronniczość się ujawnia bez świadomej intencji. Co więcej, polscy wyborcy mogą korzystać z modeli mniej restrykcyjnych, w tym otwartoźródłowych, których nie kontroluje żadna firma. Bariera przeniesie się, nie zniknie.
Zagrożenie nie polega na tym, że chatbot zdecyduje za milion wyborców. Polega na tym, że stanie się jednym z trzech, czterech głównych źródeł, na podstawie których wyborca uformuje opinię. Charakter tego źródła pozostanie dla niego nieczytelny. Wyborca rozumie, że telewizja ma redakcję i właściciela. Rozumie, że portal informacyjny ma swoją linię polityczną. Tymczasem rozmowa z chatbotem wygląda dla niego jak konsultacja z neutralnym ekspertem. To wrażenie jest fałszywe.
Jak to przełoży się na głos w urnie?
Najsilniej zadziała na wyborcach niezdecydowanych. To grupa, która rośnie najbardziej w końcowej fazie kampanii, gdy presja decyzyjna staje się nieuchronna, a klasyczne źródła informacji okazują się dla wielu wyborców niewystarczające. Niezdecydowany aktywnie szuka informacji, porównuje stanowiska. Dla niego chatbot staje się idealnym narzędziem. Wyborca, który w 2023 roku przeglądałby pół godziny portale informacyjne, w 2027 zada jedno lub dwa pytania chatbotowi. Skrócenie ścieżki decyzyjnej z półgodzinnej eksploracji do dwuminutowej rozmowy oznacza, że waga jednego źródła rośnie kilkukrotnie.
Drugi mechanizm dotyczy mobilizacji. Wyborca pewny swojej strony, ale niepewny czy w ogóle pójdzie głosować, dostanie od chatbota argumentację, która albo go zmotywuje, albo zniechęci. Konserwatysta pytający o powody braku zaufania do liberałów dostanie listę. Liberał pytający o słabości konserwatystów dostanie inną listę. Obie wyglądają na obiektywne. Obie są filtrowane przez algorytm. Efekt mobilizacyjny jest mierzalny i może oznaczać różnicę kilku punktów procentowych frekwencji w określonych grupach.
Trzeci mechanizm działa odwrotnie. Demobilizuje. Wyborca, który zapyta o dwóch konkurujących kandydatów i dostanie odpowiedź wskazującą, że obaj mają poważne wady i żaden go nie reprezentuje, ma większą skłonność, żeby zostać w domu. Cel operacji wpływu często nie polega na przekonaniu wyborcy do konkretnego kandydata, lecz na zniechęceniu go do udziału w głosowaniu. Chatbot, ze swoją skłonnością do prezentowania „obu stron sporu”, może wywoływać ten efekt mimochodem.
Czwarty mechanizm jest być może najbardziej wymierny. Dotyczy pierwszych wyborców. Osoby, które w 2027 roku osiągną wiek wyborczy, urodziły się w 2009 roku i wcześniej. Dla nich rozmowa z chatbotem nie jest nową technologią. Jest naturalnym sposobem dostępu do informacji, ukształtowanym w trakcie nauki szkolnej. Pytanie „na kogo głosować” będzie dla większości z nich pierwszym poważnym pytaniem politycznym zadanym chatbotowi. Pierwsza odpowiedź formuje schemat oceny używany przez kolejne wybory.
Jak będzie wyglądać kampania?
Z punktu widzenia sztabów wyborczych chatboty stworzą nową warstwę kampanii. Równoległą do telewizyjnej, internetowej i terenowej. Warstwę, której opanowanie stanie się jednym z głównych zadań strategicznych.
Pierwsza rzecz to pozycjonowanie w bazach chatbotów. Rok 2026 będzie kluczowy, bo to teksty wtedy opublikowane będą głównym materiałem dla chatbotów odpowiadających wyborcom w roku wyborczym. Sztaby, które to zrozumieją, zaczną intensywnie produkować teksty eksperckie, indeksowane i cytowane. Nie chodzi już o klasyczne SEO, choć ono pozostanie ważne. Chodzi o systematyczną obecność w typie źródeł, które boty traktują jako wiarygodne. Publikacje akademickie, analityczne portale branżowe, wpisy encyklopedyczne, wywiady eksperckie w mediach o autorytecie.
Druga rzecz to operacje wpływu nowej generacji. Aktorzy zewnętrzni, którzy w 2025 roku zalewali Polskę fałszywymi kontami w mediach społecznościowych, w 2027 będą działać subtelniej. Zbudują portale wyglądające na eksperckie. Z fałszywymi nazwiskami autorów albo nazwiskami prawdziwych ludzi, których profile są na tyle wiarygodne, że chatbot uzna je za źródło. Opublikują setki tekstów, w których przekaz polityczny jest wpleciony w analizy techniczne i ekonomiczne. Cel nie polega na tym, żeby te teksty czytał wyborca. Bo nikt ich nie czyta. Cel polega na tym, żeby przeczytał je chatbot. To nowa generacja operacji wpływu, w której bezpośrednim odbiorcą nie jest człowiek, lecz maszyna obsługująca człowieka.
Trzecia rzecz to dopasowywanie przekazu. W kampaniach poprzednich polegało ono na tym, że sztab kupował reklamy skierowane do precyzyjnie określonej grupy. W 2027 roku mechanizm zostanie odwrócony. Teraz to wyborca będzie sam zwracał się do chatbota, a chatbot dopasuje argumentację do tego, co o wyborcy wie z rozmowy. Sztab nie kupuje już dotarcia. Sztab dba o to, żeby teksty jego kandydata były obecne w bazie chatbota w takiej różnorodności, żeby chatbot mógł z nich zbudować argumentację dla każdego profilu rozmówcy. Konserwatysta dostanie jedną wersję tego samego kandydata, liberał inną.
Klasyczna kampania budowała się wokół wydarzeń, w których kandydat był obecny fizycznie lub w mediach. Konferencje prasowe, debaty, wiece, spoty. Kampania 2027 roku będzie budowana wokół obecności kandydata w tekstach indeksowanych przez chatboty. Wydarzenia pozostaną, bo wyborca nadal chce widzieć kandydata, ale ich funkcja zmieni się. Każde wystąpienie staje się produkcją materiału, który ma trafić do bazy chatbota. Krótko mówiąc, kampania nie kończy się w dniu wyborów. Trwa nieustannie.
Kto na tym skorzysta?
Wbrew powszechnemu wyobrażeniu, że soft power w sferze analitycznej należy do liberałów, dane pokazują obraz odwrotny. Prawica, zarówno konserwatywna, jak i wolnościowa, zbudowała w ostatniej dekadzie znacznie gęstszą sieć think-tanków, ośrodków analitycznych i mediów eksperckich niż obóz liberalny. Środowisko Prawa i Sprawiedliwości, środowisko Konfederacji oraz formujące się wokół Korony Grzegorza Brauna zaplecze publicystyczne wytworzyły rezerwuar tekstów analitycznych liczonych w dziesiątkach tysięcy. To teksty regularnie publikowane, indeksowane przez chatboty jako źródła merytoryczne, obecne w bazach w postaci, którą algorytmy traktują jako wiarygodną.
Platforma Obywatelska w tym samym okresie nie zbudowała porównywalnego zaplecza. Formacja, która od trzech dekad konkuruje o władzę, nie wypracowała własnego intelektualnego zaplecza zdolnego konkurować z prawicą w bazach chatbotów. Liberałowie mają silnych pojedynczych publicystów w mediach o autorytecie, ale brakuje im systematycznej, ośrodkowej produkcji analitycznej, która zalewałaby sieć tekstami pod indeksowanie. Ten dystans w klasycznej kampanii nie miał znaczenia, bo szła ona o spoty, debaty i konferencje. W kampanii o obecność w bazach chatbotów staje się rozstrzygający.
W wyborach 2027 roku, jeśli KO/PSL/Lewica nie podejmie radykalnych działań korygujących, struktura bazy chatbotów będzie sprzyjać prawicy w jej trzech głównych odsłonach. Prawu i Sprawiedliwości, które ma najgłębsze zaplecze instytucjonalne. Konfederacji, która ma najsilniejszy kontakt z młodym wyborcą i rosnącą obecność w sieci eksperckiej. Środowisku Korony Brauna, które działa w niszy radykalniejszej, ale produkuje teksty cytowane i powielane w sposób zwiększający ich wagę algorytmiczną. Każda z tych formacji wejdzie w kampanię z aktywem, którego nie kupiła, lecz zbudowała przez lata systematycznej obecności w sieci eksperckiej i publicystycznej.
Druga grupa beneficjentów to firmy technologiczne stojące za samymi chatbotami. OpenAI, Anthropic, Google i Meta uzyskają w polskim systemie wyborczym pozycję, której nie miał do tej pory żaden zewnętrzny aktor. Decyzje o tym, jakie źródła chatbot uzna za wiarygodne, jakie tematy ograniczy, jak sformułuje zasady moderacji w roku wyborczym, zapadają w Kalifornii, nie w Warszawie. Kluczowe parametry kampanii znajdą się poza zasięgiem polskich regulatorów. To nie spisek ani zła wola firm. To strukturalna konsekwencja faktu, że globalne narzędzie staje się elementem lokalnego procesu demokratycznego.
Lista przegranych jest krótka, ale wyrazista. Stracą partie i kandydaci, których zaplecze opiera się głównie na telewizji publicznej i radiu, bo te kanały mają niższą wagę w bazie chatbotów. Stracą media tradycyjne, w tym najwięksi nadawcy telewizyjni, bo rola pośrednika między politykiem a wyborcą zostanie przejęta.
A co u Kamila?
Wróćmy na chwilę do młodego mężczyzny z Radomia. W wieczór, kiedy zadawał ChatGPT pytanie o partię, która coś dla niego zrobi, nie wiedział, że odpowiedź, którą dostał, jest wynikiem pracy trzech warstw filtrów, korpusu uczonego latami, algorytmu pobierającego źródła w czasie rzeczywistym i wewnętrznych zasad firmy z Kalifornii. Nie wiedział, że teksty, na podstawie których chatbot mu odpowiadał, w większej części pochodziły z portali blisko związanych z określoną stroną sceny politycznej. Nie wiedział, że gdyby zadał to pytanie pół roku później, odpowiedź mogłaby być inna, bo baza została zaktualizowana, a sztaby intensywnie produkowały treści pod indeksowanie. Po dwóch minutach rozmowy z chatbotem czuł, że dokonał racjonalnego wyboru w oparciu o fakty.
Tysiące Kamilów zdecyduje wynik wyborów 2027 roku. Każdy z nich będzie wchodził do lokalu wyborczego z poczuciem, że jego decyzja jest własna. Każdy będzie miał rację w sensie technicznym, bo nikt mu nic nie nakazał. I każdy będzie się mylił w sensie strukturalnym, bo droga do tej decyzji prowadziła przez narzędzie, którego mechaniki nie rozumiał, którego nie wybrał i którego nikt mu nie polecił, a które działa na nim na co dzień, wiele razy dziennie, w sprawach mniejszych i większych.
Polska polityka w 2027 roku będzie się rozgrywać w miejscach, w których do tej pory się nie rozgrywała. W kawalerkach w Radomiu, w pokojach na warszawskim Grochowie, w autobusach z Krakowa do Wieliczki. Wszędzie tam, gdzie ktoś otworzy ChatGPT i wpisze pytanie. Zwycięży ten, kto wcześniej zadbał o to, jakie teksty chatbot ma w swojej bazie. Czyli ten, kto pracował, gdy nikt jeszcze nie patrzył.