
Rozwój sztucznej inteligencji sprawia, że manipulowanie opinią publiczną staje się coraz łatwiejsze. Od mikro-targetowania reklam w mediach społecznościowych po deepfake – narzędzia wpływu nigdy nie były tak zaawansowane.
Spis treści:
Jak działają platformy społecznościowe?
Wyniki eksperymentu dotyczącego platformy X, o którym ostatnio pisałem skłaniają do szerszego spojrzenia na cały ekosystem mediów społecznościowych. Warto przyjrzeć się, jak działają pozostałe potęgi cyfrowego świata.
Każda z dużych platform posiada własne „instrukcje” (algorytmy), które decydują o tym, co widzimy, a czego nie. Wszystkie chcą zatrzymać naszą uwagę. Robią to za pomocą różnych sztuczek, które zleceniodawcy manipulacji potrafią bezlitośnie wykorzystywać.
Facebook i mikro-targetowanie
Facebook pozostaje potężnym narzędziem ze względu na ogromną ilość danych, jakie o nas posiada. Algorytmy tej platformy nie patrzą tylko na to, co polubiliśmy, ale analizują sygnały w czasie rzeczywistym, by zdecydować, co wyświetlić użytkownikowi w pierwszej kolejności.
Co się z tym wiąże?
Niebezpieczeństwo manipulacji komercyjnej. Na przykład komitety wyborcze korzystały z narzędzi reklamowych, które pozwalały na tzw. mikro-targetowanie. Oznacza to, że mogły stworzyć dziesiątki różnych wersji tej samej reklamy, z których każda trafiała do innej, bardzo wąskiej grupy osób.
Jak to działa w praktyce?
Jeśli algorytm wie, że użytkownik interesuje się ekologią, zobaczy on reklamę kandydata obiecującego sadzenie drzew. Jeśli jednak sąsiad martwi się o ceny prądu, temu samemu kandydatowi algorytm „pomoże” wyświetlić u niego komunikat o wsparciu dla górnictwa albo o wsparciu do kosztów rachunków.
Zdarzały się też przypadki tzw. „czarnych reklam”, które nie promowały własnego kandydata, ale miały jedynie zohydzić przeciwnika, często bazując na dezinformacji.
TikTok – algorytm uzależniający uwagę
To niewinna rozrywka, która potrafi jednak niepostrzeżenie zmieniać poglądy.
TikTok to nie tylko krótkie filmiki z tańcem i zabawnymi sytuacjami, ale główne źródło wiadomości dla młodego pokolenia. Jego algorytmy są uznawane za najbardziej „uzależniające” – Komisja Europejska wszczęła nawet postępowanie w tej sprawie, oskarżając platformę o celowe projektowanie mechanizmów, które utrudniają przerwanie scrollowania i oderwania się od kolejnych proponowanych treści.
TikTok oficjalnie zabrania płatnych reklam politycznych. Omija się to jednak, płacąc popularnym influencerom za „spontaniczne” poparcie np. swojego kandydata w ich filmach.
Ponieważ algorytm TikToka faworyzuje treści wywołujące silne emocje, bardzo szybko zamyka użytkownika w bańce informacyjnej. Jeśli ten raz zatrzyma się na filmie np. o spiskach politycznych, system uzna, że tego właśnie chce odbiorca. I odetnie go od jakichkolwiek innych punktów widzenia.
YouTube i długie treści wpływu
YouTube stara się o utrzymanie bezstronności, ale mimo to pozostaje miejscem, gdzie można wpaść w pułapkę.
Algorytm promuje bowiem treści, które utrzymają sprofilowanego widza przed ekranem najdłużej. Wykorzystuje się to do publikowania dłuższych materiałów. Na przykład takich, które budują poczucie głębokiej więzi z liderem społeczno-politycznym. Robi się to np. przez wywiady – rzeki w formie podcastu.

Czy więc jesteśmy skazani na manipulację?
Niekoniecznie. Na obszarze Unii Europejskiej przyjęto nowe, dość restrykcyjne wymogi unijnego rozporządzenia o przejrzystości i targetowaniu reklamy politycznej (TTPA). W związku z tym koncern Meta, który jest właścicielem Facebooka i Instagrama, od 10 października 2025 roku zaprzestał wyświetlania reklam politycznych, wyborczych oraz dotyczących kwestii społecznych w swoich docisk mediach na obszarze UE.
Koncern uznał nowe przepisy za zbyt skomplikowane operacyjnie i niosące ze sobą duże ryzyko prawne (kary do 6% rocznego obrotu). Nowe prawo wymagało m.in. szczegółowego oznaczania sponsora, kosztów, celu reklamy oraz uzyskiwania wyraźnej zgody użytkownika na targetowanie.
Co to oznacza w praktyce?
Politycy i organizacje nie mogą już kupować płatnych zasięgów dla swoich postów o charakterze politycznym czy społecznym. Dozwolona pozostaje jedynie komunikacja organiczna (bezpłatne posty na profilach), która jednak dociera do mniejszej liczby osób ze względu na ograniczone działanie algorytmów platformy.
Podobną decyzję o wstrzymaniu reklam politycznych w UE podjął również Alphabet, właściciel Google.
Poza Unią Europejską (np. w USA) Facebook nadal pozwala na reklamy polityczne, ale wymaga przejścia rygorystycznego procesu autoryzacji oraz umieszczania etykiety „Opłacone przez” (Paid for by).
Jak więc nie dać się zmanipulować?
Aby opinia była naprawdę własna, a nie zasugerowana przy pomocy algorytmu, pamiętajmy o kilku zasadach:
- Raz na jakiś czas celowo warto wyszukać informacji o poglądach przeciwnych do własnych. To „zdezorientuje” algorytm i pozwoli zobaczyć szerszy obraz świata.
- Uwaga na influencerów. To, że ulubiony twórca z TikToka czy Youtuba może nie wyrażać własnego zdania, lecz realizować opłacone zlecenie np. od sztabu wyborczego wymaga włączenia szczególnej czujności i ograniczonego zaufania do takich „mimochodem rzuconych” opinii.
- Sprawdzajmy etykiety poza UE. Facebook i Instagram wymagają oznaczania treści stworzonych przez AI oraz reklam politycznych prezentowanych poza UE hasłem „Opłacone przez…”.
- Oczywiście zawsze możemy też w ustawieniach użytkownika ograniczyć mechanizmy profilowania i personalizacji użytkownika na danej platformie.
Nowe wyzwanie: sztuczna inteligencja
Na horyzoncie pojawia się jednak kolejne wyzwanie. Rozwój dużych modeli językowych (LLM), takich jak ChatGPT, Grok czy Gemini wprowadza zupełnie nową dynamikę w procesie kształtowania opinii.
W przeciwieństwie do tradycyjnych wyszukiwarek internetowych, które zasadniczo odsyłają nas do źródeł, chatboty generują gotowe odpowiedzi, co sprawia, że rzadziej weryfikujemy informacje źródłowe i chętniej przyjmujemy podany nam punkt widzenia.
Jakie zagrożenia związane są z tą technologią? To np. ukryte uprzedzenia i brak neutralności. Choć twórcy modeli starają się wprowadzać zabezpieczenia, LLM-y nie są neutralne. Ich odpowiedzi zależą od danych, na których zostały wytrenowane, co może prowadzić do powielania konkretnych ideologii, jeśli w procesie uczenia nie zostały te ideologie odpowiednio sklasyfikowane.
Badania wskazują, że wiele modeli wykazuje tendencję do skrzywienia liberalnego lub konserwatywnego, co wpływa na to, jak opisują np. kandydatów w wyborach czy wprowadzane reformy.
Inny problem to dostosowanie do użytkownika. Modele mają tendencję do potakiwania użytkownikowi. Jeśli zadamy pytanie sugerujące określoną tezę, np. „Dlaczego jakaś zmiana w prawie jest zła?”, model prawdopodobnie dostarczy argumentów potwierdzających uprzedzenia, zamiast przedstawić obiektywny obraz.

Rozmowa z chatbotem skuteczniejsza niż tradycyjna reklama
Badania dowodzą też, że bezpośrednia rozmowa z chatbotem jest znacznie skuteczniejsza w przekonywaniu niż tradycyjne reklamy czy ulotki.
Dlaczego? Przez wysoką skuteczność perswazji, co wynika z tego, że interaktywny charakter rozmowy sprawia, że czujemy się słuchani. To z kolei obniża nasz krytycyzm, a model językowy otrzymuje od nas podmiotowość. Chatbot może też w czasie rzeczywistym dobierać argumenty pod konkretne obawy wynikające z profilu użytkownika, co czyni go idealnym narzędziem o tzw. mikro-perswazji.
Obecnie coraz większym problemem staje się również celowe wprowadzanie do sieci ogromnej ilości zmanipulowanych danych, by wpłynąć na to, czego „uczą się” przyszłe wersje modeli AI. Państwa i grupy interesów poprzez fabryki botów zalewają internet treściami wspierającymi ich narrację, co sprawia, że modele AI zaczynają uznawać te kłamstwa za powszechnie akceptowane fakty.
Z kolei poprzez granie dezinformacją ośmiesza się przeciwników i wzmacnia własną propagandę poprzez masowe generowanie memów i treści typu fake news.
Deepfake i kryzys zaufania
Obecnie technologia AI drastycznie obniżyła koszty prowadzenia kampanii manipulacyjnych. LLM-y współpracują z generatorami obrazu i dźwięku, tworząc niezwykle wiarygodne materiały, na których oczerniane osoby „mówią” rzeczy, których faktycznie nigdy nie wypowiedziały.
Filmy typu deepfake to obecnie jedno z najpotężniejszych i najniebezpieczniejszych narzędzi manipulacji opinią publiczną. O ile tekstowe modele językowe (LLM) mogą nas przekonywać argumentami, o tyle deepfake uderzają w naszą podstawową zasadę poznawczą: „wierzę w to, co widzę i słyszę”.
Najprostszym, a zarazem najskuteczniejszym zastosowaniem jest tworzenie nagrań, na których np. polityk mówi coś kompromitującego, czego w rzeczywistości nigdy nie wypowiedział.
Ale działa to też w drugą stronę i paradoksalnie jest jeszcze groźniejsze niż same fałszywki. Bowiem skoro wiemy o istnieniu technologii deepfake, to osoby złapane na występku mogą zacząć twierdzić, że autentyczne, kompromitujące ich nagrania są fałszem wygenerowanym przez AI. W ten sposób technologia deepfake podkopuje fundamenty prawdy. Odbiorca treści przestaje ufać jakiemukolwiek nagraniu, co prowadzi do apatii i poczucia, że „wszyscy kłamią”.
Masowa personalizacja przekazu polega na tym, że można przestać tworzyć jeden film dla wszystkich. Dzięki połączeniu LLM-ów i deepfake’ów możliwe jest masowe generowanie spersonalizowanych filmów.
Wyobraźmy sobie, że czytelniku otrzymujesz na komunikatorze wideo, na którym (wygenerowany przez AI) kandydat na radnego zwraca się do Ciebie po imieniu i odnosi się do problemów Twojego konkretnego osiedla. Taki poziom „bliskości” z wyborcą, choć całkowicie sztuczny, ma gigantyczną siłę perswazji.
„Wolność wyboru” pod coraz większa presją
Stoimy więc u progu ery, w której materiał wideo przestaje być dowodem prawdy. Badania nad algorytmami, manipulacje mediów społecznościowych oraz rozwój deepfake’ów pokazują, że nasza „wolność wyboru” jest poddawana bezprecedensowej presji.
Kluczem do obrony jest nie tylko technologia oraz przepisy prawne, ale przede wszystkim nasza czujność i ograniczone zaufanie do treści, które budzą w nas skrajne emocje.
Pamiętajmy o tym, zanim zaczniemy często nieświadomie powielać czyjś, niekoniecznie prawdziwy i etyczny przekaz.
* Problematyka Sykofancji LLM polegającej na nieszczerym, przesadnym schlebianiu przez modele językowe będzie tematem jednego z kolejnych artykułów.
Masz pytania? Zostaw komentarz albo napisz do nas na Facebooku. Wykorzystujemy też algorytmy Instagrama i TikToka :))


