Algorytmy w social mediach
Można by zapytać: co w tym złego, że komputer pokazuje mi to, co lubię? | Fot. Pexels

Algorytmy, które decydują o tym, co widzimy w mediach społecznościowych, nie są jedynie neutralnym narzędziem porządkowania treści. Badanie opublikowane w prestiżowym czasopiśmie „Nature” sugeruje, że mogą one realnie zmieniać poglądy użytkowników.


Jak algorytmy mogą zmieniać nasze poglądy?

Świat, w którym żyjemy, jest dziś zdominowany przez media społecznościowe. To obecnie naturalny element naszej rzeczywistości, miejsce, gdzie zdobywamy informacje, komentujemy wydarzenia i kształtujemy opinie.

Coraz lepiej orientujemy się też, że do ich funkcjonowania wykorzystywane są algorytmy analizujące zachowanie użytkowników. W konsekwencji oczywiste wydaje się pytanie: czy to my samodzielnie kształtujemy nasze opinie, czy też wpływają na to niewidzialne instrukcje komputerowe?

Badanie opublikowane w czasopiśmie „Nature”* rzuca nowe, światło na to, jak platformy społeczne wpływają na postawy społeczno – polityczne swoich użytkowników.

Eksperyment z udziałem użytkowników platformy X

Zespół naukowców w składzie: Germain Gauthier, Roland Hodler, Philine Widmer oraz Ekaterina Zhuravskaya, przeprowadził w 2023 roku eksperyment, który dowodzi, że algorytm nie jest jedynie neutralnym narzędziem do porządkowania treści. Wręcz przeciwnie – ma on realną moc modyfikowania poglądów użytkowników.

Na czym polegał eksperyment? Aby zrozumieć, jak działa ten mechanizm, badacze zaprosili do udziału blisko pięć tysięcy aktywnych użytkowników platformy X ze Stanów Zjednoczonych. Uczestnicy zostali losowo podzieleni na dwie grupy.

Grupa neutralna widziała posty w porządku chronologicznym – na górze pojawiały się najnowsze wpisy od osób, które faktycznie obserwowali.

Grupa algorytmiczna korzystała natomiast z domyślnej funkcji platformy, gdzie kolejność wpisów ustalał komputer, podsuwając treści także od osób, których użytkownik wcale nie obserwował.

Eksperyment trwał siedem tygodni. Naukowcy mierzyli postawy polityczne uczestników przed rozpoczęciem badania i po jego zakończeniu, sprawdzając, czy zmiana sposobu wyświetlania treści wpłynęła na ich myślenie o świecie.

Media społecznościowe
Świat, w którym żyjemy, jest dziś zdominowany przez media społecznościowe. Jaki ma to wpływ na nasze poglądy? | Fot. Pexels

Skręt poglądów i większe zaangażowanie

Co takiego odkryli badacze? Wyniki eksperymentu były jednoznaczne. Zwłaszcza w porównaniu do wcześniejszych badań nad platformami, które nie wykazały podobnych efektów.

Objawiły się poprzez:

  • Skręt poglądów: Użytkownicy, którzy zostali przełączeni na karmienie treściami przez algorytm, zaczęli przejawiać poglądy zbieżne z zabarwieniem politycznym proponowanych treści. Zmiana ta dotyczyła przede wszystkim treści politycznych (np. większy nacisk na inflację czy imigrację), oceny śledztw przeciwko politykom oraz stosunku do wojny na Ukrainie.
  • Większe zaangażowanie: Algorytm skutecznie „wciągał” użytkowników w proponowaną tematykę. Osoby korzystające z funkcji podsuwania treści przez algorytmy rzadziej ograniczały czas spędzany na platformie niż ci, którzy widzieli jedynie wpisy chronologicznie.
  • Promocja konkretnych treści: Analiza wykazała, że algorytmy aktywnie promują treści o konkretnym zabarwieniu politycznym oraz wpisy od aktywistów politycznych, jednocześnie ograniczając zasięgi tradycyjnych mediów informacyjnych.

Co ciekawe, algorytmy nie wpłynęły na tzw. polaryzację afektywną, czyli to, jak bardzo nie lubimy osoby o przeciwnych poglądach, ani na to, z jaką partią się utożsamiamy. Zmieniły jednak postrzeganie tego, co uważamy za ważne i jak oceniamy konkretne wydarzenia polityczne.

Pułapka, z której trudno wyjść

Jednym z najważniejszych odkryć zespołu naukowców jest to, co dzieje się po wyłączeniu wpływu algorytmu.

Naukowcy zauważyli zdumiewającą asymetrię: o ile włączenie algorytmu szybko zmieniało poglądy na bardziej zbieżne z zamierzonymi przez ich twórców, o tyle powrót do widoku chronologicznego nie cofał tych zmian w podobnym stopniu.

Dlaczego tak się dzieje? Odpowiedź tkwi w naszym zachowaniu. Algorytm podsuwa nam profile wskazanych aktywistów, które zaczynamy obserwować. Kiedy badacze wyłączali uczestnikom algorytm, te nowo zaobserwowane konta nadal pojawiały się w ich prywatnych zestawieniach, ponieważ użytkownicy teraz już intencjonalnie sami je dodali do „śledzonych”.

Wstępna ekspozycja na algorytm ma trwały wpływ na postawy polityczne i zachowanie użytkowników, nawet po jego wyłączeniu…

czytamy w raporcie.

Oznacza to, że algorytm działa tak, aby werbować użytkowników podatnych potencjalnie na jego sugestie. Pokazuje treści, które ciekawią lub bulwersują, skłania do kliknięcia przycisku „obserwuj”, a potem środowisko informacyjne użytkownika zostaje trwale zmienione, nawet jeśli teoretycznie zrezygnuje z pomocy sztucznej inteligencji.

Dlaczego to ma znaczenie? Czy jesteśmy wolni w sieci?

Można by zapytać: co w tym złego, że komputer pokazuje mi to, co lubię?

Problem nie polega jednak na tym, a na skali działania i braku przejrzystości. Badanie wykazało, że algorytmy szczególnie promują treści, które zdobywają ogromną liczbę polubień i udostępnień. W widoku algorytmicznym miały one średnio aż o 480 procent więcej polubień niż w układzie chronologicznym, co często oznacza faworyzowanie treści emocjonalnych i skrajnych, zamiast rzetelnych informacji.

Dlaczego? Bo takie najmocniej przykuwają uwagę – wg. powiedzenia: „dobra wiadomość to zła, przerysowana wiadomość”.

Dodatkowo, badacze zauważyli, że w USA wpływ ten był najsilniejszy wśród Republikanów i osób niezależnych. Demokraci wydawali się bardziej odporni na te zmiany, co może sugerować, że algorytm X trafia na bardziej podatny grunt u osób o konkretnym sposobie oceny swojego otoczenia lub światopoglądzie.

Czy zatem jesteśmy wolni w sieci?

Badanie zespołu to sygnał ostrzegawczy. Pokazuje ono, że media społecznościowe to nie tylko niewinne tablice ogłoszeniowe. To potężne generatory opinii, które potrafią w ciągu zaledwie kilku tygodni subtelnie, ale skutecznie przesunąć nasz kompas polityczny.


Badanie dotyczące platformy X to tylko fragment większej układanki. W drugiej części przyjrzymy się, jak działają algorytmy Facebooka, TikToka i YouTube’a, w jaki sposób wykorzystywane są do manipulacji politycznej oraz dlaczego rozwój sztucznej inteligencji – w tym chatbotów i technologii deepfake – może jeszcze bardziej zmienić sposób kształtowania opinii publicznej.


* Artykuł opracowany na podstawie publikacji w „Nature”: Gauthier, G., Hodler, R., Widmer, P., & Zhuravskaya, E. (2026). The political effects of X’s feed algorithm.


Masz pytania? Napisz komentarz, wyślij maila: re******@*******ow.pl, albo napisz do nas na Facebooku.

Udostępnij.

Elektronik, informatyk. Absolwent Wydziału Elektrycznego Politechniki Rzeszowskiej. Pracował jako programista w Polsce i USA, wieloletni pracownik różnych szczebli administracji rządowej i samorządowej. Pasjonat nowych technologii i ich praktycznych zastosowań.

Zostaw Komentarz