Wirtualna trucizna: Jak toksyczne komentarze wpływają na nasz mózg?

W dzisiejszych czasach Internet stał się naszym pierwszym wyborem w zdobywaniu wiedzy. Każdy komentarz i recenzja mogą mieć globalny zasięg i głęboko wpływać na nasze emocje oraz decyzje. Niezależnie czy chodzi o zakup nowego produktu, polecenie specjalisty czy sprawdzanie porad zdrowotnych, najpierw odwiedzamy media społecznościowe lub fora internetowe. Co jednak dzieje się, gdy zamiast wsparcia i wartościowych dyskusji napotykamy na falę toksycznych komentarzy?
Aleksandra Załęska
2024-05-21 15:12
Udostępnij
Wirtualna trucizna: Jak toksyczne komentarze wpływają na nasz mózg?

Dane z raportu "41 STATISTICS ABOUT ONLINE REVIEWS FOR 2024 & BEYOND" potwierdzają znaczenie opinii online w procesie decyzyjnym konsumentów. Statystyki wskazują, że aż 94% konsumentów unika firm z negatywnymi opiniami, a 90% czyta opinie online przed odwiedzeniem miejsca lub zakupem produktu. Co więcej, 88% konsumentów ufa tym recenzjom tak samo jak osobistym rekomendacjom. Te dane pokazują, jak duże znaczenie mają opinie online nie tylko w kontekście bezpośredniego wpływu na sprzedaż, ale także w budowaniu zaufania i reputacji marki.

Negatywne Emocje i Stres

Mimo że opinie online mogą być nieocenionym źródłem informacji, mogą również stać się źródłem stresu i lęku, gdy zamieniają się w nienawistne komentarze. Czytanie takich treści może wywoływać u nas uczucie niepokoju. Ciągła ekspozycja na negatywne treści sprawia, że zaczynamy obawiać się każdej kolejnej wizyty na ulubionej platformie społecznościowej. Bryn Austin, profesor w Katedrze Nauk Społecznych i Behawioralnych na Harvard Public Health, komentuje: "Instagram dosłownie sprzedaje uwagę użytkowników. Firma wie, że silne, negatywne emocje, które mogą być wywoływane przez niekorzystne porównania społeczne, utrzymują uwagę użytkowników dłużej niż inne emocje – a algorytmy Instagrama są wyraźnie zaprojektowane w ten sposób, aby kierować nastolatków w stronę toksycznych treści, w efekcie czego dłużej pozostają na platformie."

Długotrwały Wpływ na Zdrowie

Z czasem może to prowadzić do chronicznego stresu, który ma negatywny wpływ na nasze zdrowie fizyczne i psychiczne. Toksyczne komentarze często wymierzone są w nasze cechy osobiste, wygląd, poglądy czy umiejętności. Ciągłe otrzymywanie negatywnych opinii może prowadzić do obniżenia samooceny i poczucia własnej wartości. Zaczynamy wątpić w siebie i swoje możliwości, co może skutkować wycofaniem się z życia społecznego i zawodowego. Przedłużający się stres i niska samoocena mogą prowadzić do rozwoju depresji. Osoby narażone na cyberbullying często czują się osamotnione, bezwartościowe i bezradne.

Rozwiązania z Wykorzystaniem AI

Twórcy TrollWall AI, aplikacji służącej do filtrowania nienawistnych komentarzy w mediach społecznościowych, przeanalizowali ponad 400 stron i profili na słowackim Facebooku. Badanie objęło w dwóch fazach aż 7,5 miliona komentarzy. W rezultacie zaobserwowano, że średni odsetek wpisów pełnych nienawiści wynosi aż 13%. Odsetek bywa wyższy na konkretnych stronach z obszaru polityki, sportu czy kultury.

Analitycy dowiedli jednak, że aktywna moderacja dyskusji w mediach społecznościowych prowadzona przy użyciu sztucznej inteligencji ma pozytywny wpływ na jej poziom, ponieważ znowu przyciąga do niej uprzejme osoby. Włączenie narzędzi AI, które odfiltrowują nienawistne wpisy, doprowadziło do spadku poziomu hejtu z 13 do zaledwie 2%.

Skuteczna Moderacja

Definiujemy hejt na podstawie międzynarodowych definicji mowy nienawiści, czyli hate speech. Chodzi o wrogie wypowiedzi wobec osoby lub grupy osób na podstawie ich tożsamości, cech charakterystycznych czy przynależności rasowej, wyznania, orientacji seksualnej. Wulgaryzmy i toksyczny język również są uwzględniane. Jak wyjaśnia Tomáš Halász, współtwórca aplikacji TrollWall AI: "AI potrafi wykrywać wzorce mowy nienawiści, obraźliwych treści i toksycznych zachowań, a następnie w czasie rzeczywistym blokować lub usuwać takie wpisy, zanim zdążą one zaszkodzić społeczności. Co więcej, sztuczna inteligencja jest zdolna do oceny kontekstu wypowiedzi, co pozwala jej rozróżnić żartobliwe komentarze od tych obraźliwych."

Cyfrowe rozwiązanie funkcjonuje w oparciu o technologię Azure, wykorzystując autorskie modele językowe stworzone w obrębie AI. Technologia ta umożliwia przetwarzanie języka naturalnego do moderacji kontekstowej i stosuje algorytmy uczenia maszynowego dla ciągłego doskonalenia wyników. Analiza danych opiera się na czasie rzeczywistym, co pozwala na natychmiastowe działania w przypadku realnych zagrożeń.

Przyjazne Środowisko Online

W efekcie trollowanie zostaje zredukowane, a przestrzeń dyskusyjna staje się bardziej przyjazna i konstruktywna. Uczestnicy rozmów mogą ponownie angażować się w dyskusje bez obawy przed atakami i hejtem, co sprzyja tworzeniu wartościowych i merytorycznych wymian zdań. Taki poziom dyskusji wspiera rozwijanie relacji online i budowanie wartościowych społeczności. Dzięki temu platformy stają się miejscem, gdzie użytkownicy chętniej dzielą się swoimi opiniami, doświadczeniami i wiedzą, co prowadzi do wzrostu zaufania i wzajemnego szacunku wśród członków społeczności.