
Algorytmy, które decydują o tym, co widzimy w mediach społecznościowych, nie są jedynie neutralnym narzędziem porządkowania treści. Badanie opublikowane w prestiżowym czasopiśmie „Nature” sugeruje, że mogą one realnie zmieniać poglądy użytkowników.
Spis treści:
Jak algorytmy mogą zmieniać nasze poglądy?
Świat, w którym żyjemy, jest dziś zdominowany przez media społecznościowe. To obecnie naturalny element naszej rzeczywistości, miejsce, gdzie zdobywamy informacje, komentujemy wydarzenia i kształtujemy opinie.
Coraz lepiej orientujemy się też, że do ich funkcjonowania wykorzystywane są algorytmy analizujące zachowanie użytkowników. W konsekwencji oczywiste wydaje się pytanie: czy to my samodzielnie kształtujemy nasze opinie, czy też wpływają na to niewidzialne instrukcje komputerowe?
Badanie opublikowane w czasopiśmie „Nature”* rzuca nowe, światło na to, jak platformy społeczne wpływają na postawy społeczno – polityczne swoich użytkowników.
Eksperyment z udziałem użytkowników platformy X
Zespół naukowców w składzie: Germain Gauthier, Roland Hodler, Philine Widmer oraz Ekaterina Zhuravskaya, przeprowadził w 2023 roku eksperyment, który dowodzi, że algorytm nie jest jedynie neutralnym narzędziem do porządkowania treści. Wręcz przeciwnie – ma on realną moc modyfikowania poglądów użytkowników.
Na czym polegał eksperyment? Aby zrozumieć, jak działa ten mechanizm, badacze zaprosili do udziału blisko pięć tysięcy aktywnych użytkowników platformy X ze Stanów Zjednoczonych. Uczestnicy zostali losowo podzieleni na dwie grupy.
Grupa neutralna widziała posty w porządku chronologicznym – na górze pojawiały się najnowsze wpisy od osób, które faktycznie obserwowali.
Grupa algorytmiczna korzystała natomiast z domyślnej funkcji platformy, gdzie kolejność wpisów ustalał komputer, podsuwając treści także od osób, których użytkownik wcale nie obserwował.
Eksperyment trwał siedem tygodni. Naukowcy mierzyli postawy polityczne uczestników przed rozpoczęciem badania i po jego zakończeniu, sprawdzając, czy zmiana sposobu wyświetlania treści wpłynęła na ich myślenie o świecie.

Skręt poglądów i większe zaangażowanie
Co takiego odkryli badacze? Wyniki eksperymentu były jednoznaczne. Zwłaszcza w porównaniu do wcześniejszych badań nad platformami, które nie wykazały podobnych efektów.
Objawiły się poprzez:
- Skręt poglądów: Użytkownicy, którzy zostali przełączeni na karmienie treściami przez algorytm, zaczęli przejawiać poglądy zbieżne z zabarwieniem politycznym proponowanych treści. Zmiana ta dotyczyła przede wszystkim treści politycznych (np. większy nacisk na inflację czy imigrację), oceny śledztw przeciwko politykom oraz stosunku do wojny na Ukrainie.
- Większe zaangażowanie: Algorytm skutecznie „wciągał” użytkowników w proponowaną tematykę. Osoby korzystające z funkcji podsuwania treści przez algorytmy rzadziej ograniczały czas spędzany na platformie niż ci, którzy widzieli jedynie wpisy chronologicznie.
- Promocja konkretnych treści: Analiza wykazała, że algorytmy aktywnie promują treści o konkretnym zabarwieniu politycznym oraz wpisy od aktywistów politycznych, jednocześnie ograniczając zasięgi tradycyjnych mediów informacyjnych.
Co ciekawe, algorytmy nie wpłynęły na tzw. polaryzację afektywną, czyli to, jak bardzo nie lubimy osoby o przeciwnych poglądach, ani na to, z jaką partią się utożsamiamy. Zmieniły jednak postrzeganie tego, co uważamy za ważne i jak oceniamy konkretne wydarzenia polityczne.

NOWE TECHNOLOGIE: Samochód elektryczny na dalszej trasie. Czy to się opłaca?
Pułapka, z której trudno wyjść
Jednym z najważniejszych odkryć zespołu naukowców jest to, co dzieje się po wyłączeniu wpływu algorytmu.
Naukowcy zauważyli zdumiewającą asymetrię: o ile włączenie algorytmu szybko zmieniało poglądy na bardziej zbieżne z zamierzonymi przez ich twórców, o tyle powrót do widoku chronologicznego nie cofał tych zmian w podobnym stopniu.
Dlaczego tak się dzieje? Odpowiedź tkwi w naszym zachowaniu. Algorytm podsuwa nam profile wskazanych aktywistów, które zaczynamy obserwować. Kiedy badacze wyłączali uczestnikom algorytm, te nowo zaobserwowane konta nadal pojawiały się w ich prywatnych zestawieniach, ponieważ użytkownicy teraz już intencjonalnie sami je dodali do „śledzonych”.
Wstępna ekspozycja na algorytm ma trwały wpływ na postawy polityczne i zachowanie użytkowników, nawet po jego wyłączeniu…
czytamy w raporcie.
Oznacza to, że algorytm działa tak, aby werbować użytkowników podatnych potencjalnie na jego sugestie. Pokazuje treści, które ciekawią lub bulwersują, skłania do kliknięcia przycisku „obserwuj”, a potem środowisko informacyjne użytkownika zostaje trwale zmienione, nawet jeśli teoretycznie zrezygnuje z pomocy sztucznej inteligencji.
Dlaczego to ma znaczenie? Czy jesteśmy wolni w sieci?
Można by zapytać: co w tym złego, że komputer pokazuje mi to, co lubię?
Problem nie polega jednak na tym, a na skali działania i braku przejrzystości. Badanie wykazało, że algorytmy szczególnie promują treści, które zdobywają ogromną liczbę polubień i udostępnień. W widoku algorytmicznym miały one średnio aż o 480 procent więcej polubień niż w układzie chronologicznym, co często oznacza faworyzowanie treści emocjonalnych i skrajnych, zamiast rzetelnych informacji.
Dlaczego? Bo takie najmocniej przykuwają uwagę – wg. powiedzenia: „dobra wiadomość to zła, przerysowana wiadomość”.
Dodatkowo, badacze zauważyli, że w USA wpływ ten był najsilniejszy wśród Republikanów i osób niezależnych. Demokraci wydawali się bardziej odporni na te zmiany, co może sugerować, że algorytm X trafia na bardziej podatny grunt u osób o konkretnym sposobie oceny swojego otoczenia lub światopoglądzie.
Czy zatem jesteśmy wolni w sieci?
Badanie zespołu to sygnał ostrzegawczy. Pokazuje ono, że media społecznościowe to nie tylko niewinne tablice ogłoszeniowe. To potężne generatory opinii, które potrafią w ciągu zaledwie kilku tygodni subtelnie, ale skutecznie przesunąć nasz kompas polityczny.
Badanie dotyczące platformy X to tylko fragment większej układanki. W drugiej części przyjrzymy się, jak działają algorytmy Facebooka, TikToka i YouTube’a, w jaki sposób wykorzystywane są do manipulacji politycznej oraz dlaczego rozwój sztucznej inteligencji – w tym chatbotów i technologii deepfake – może jeszcze bardziej zmienić sposób kształtowania opinii publicznej.
* Artykuł opracowany na podstawie publikacji w „Nature”: Gauthier, G., Hodler, R., Widmer, P., & Zhuravskaya, E. (2026). The political effects of X’s feed algorithm.
Masz pytania? Napisz komentarz, wyślij maila: re******@*******ow.pl, albo napisz do nas na Facebooku.
