Wiadomości naukowe ludzie

Poprawianie fałszywych informacji wzmaga zacietrzewienie

Zespół uczonych z bry­tyj­skiego Uni­ver­sity of Exeter Business School oraz ame­ry­kań­skiego MIT opu­bli­ko­wał wyniki badania doty­czą­cego reago­wa­nia na powie­la­nie nie­rze­tel­nych treści w inter­ne­cie. Autorzy chcieli w szcze­gól­no­ści spraw­dzić jaki skutek przynosi spo­łeczna korekta i czy zwra­ca­nie uwagi na nie­ści­sło­ści, zgodnie z ocze­ki­wa­niami zmniej­sza ich ilość. Jak się okazało, nie­ko­niecz­nie, przy­naj­mniej jeżeli infor­ma­cje zaha­czają o poglądy i politykę.

Naukowcy ziden­ty­fi­ko­wali dwa tysiące twit­te­ro­wych kont, udo­stęp­nia­ją­cych jeden z kil­ku­na­stu popu­lar­nych w USA fejk­new­sów (typu: “Donald Trump, eks­mi­to­wał kiedyś nie­peł­no­spraw­nego weterana za posia­da­nie psa tera­peu­tycz­nego”). Następ­nie utwo­rzyli serię botów, które reago­wały na każdy taki tweet w scep­tyczny, ale grzeczny sposób (“Nie mam prze­ko­na­nia do tego artykułu. To może nie być prawda”.), wraz z linkiem do sprostowania.

Efekty bynaj­mniej nie podnoszą na duchu. Próby oby­wa­tel­skiej korekty nie tylko nie przy­nio­sły poprawy, ale wręcz dopro­wa­dziły do żywszego roz­po­wszech­nia­nia zmy­ślo­nej infor­ma­cji. Autorzy publi­ka­cji wprost piszą o dowodzie na to, że wery­fi­ko­wa­nie fejk­new­sów zwiększa stron­ni­czość inter­nau­tów oraz językową tok­sycz­ność kolej­nych postów. Efekt jest szcze­gól­nie widoczny retwe­etach, powie­la­nych naj­ła­twiej i bez żadnej refleksji.

Źródło: M. Mosleh, C. Martel, D. Eckles, D. Rand, Perverse Downstream Consequences of Debunking: Being Corrected by Another User for Posting False Political News Increases Subsequent Sharing of Low Quality, Partisan, and Toxic Content in a Twitter Field Experiment.
Total
0
Shares