„Verigile slabe” în gândire – indispensabile în „lanțul manipulării”. Cum le depășim?

Există niște bariere mentale care contribuie la agravarea unei probleme. În cazul pandemiei cu care ne confruntăm, psihologul olandez Joris Lammers (University of Cologne, Germania), a derulat cu colegi ai săi mai multe studii (publicate în Proceedings of the National Academy of Sciences USA), care au relevat că americanii se așteptau la o evoluție liniară a cazurilor de îmbolnăvire, subestimând creșterea exponențială. Acesta a prezentat sugestiv diferența enormă între cele două situații: să faci 30 de pași liniari din ușa casei tale, te duce de cealaltă parte a străzii, în vreme ce 30 de pași din perspectivă exponențială înseamnă să înconjori globul de 26 de ori.

Interesante sunt observațiile pe care acest psiholog le-a făcut între prejudecățile mentale și preferințele politice. A descoperit, de exemplu, că dacă atât simpatizanții democraților cât și ai republicanilor au evaluat eronat posibilitatea creșterii exponențiale a infectărilor, cei ai P.Republican — ai cărui lideri au subestimat seriozitatea pandemiei — au făcut această eroare mai des. Specialiștii din sfera științelor sociale denumesc aceasta raționare/argumentare motivată (“motivated reasoning”), referindu-se la tendința de a decide ce dovezi acceptăm în funcție de concluzia pe care o preferăm.

Multe din verigile noastre slabe în gândire (prejudecăți / stereotipuri) sunt rezultatul a mii de ani de adaptare a omului. Convingerile exacte au contat adeseori mai puțin pentru supraviețuire decât abilitatea de a coopera și a convinge. Credințele noastre tind, de asemenea, să fie auto-protective. „Prejudecata optimistă” (optimism bias) e un astfel de exemplu. Puterea optimismului și a speranței între membrii familiei unei persoane bolnave ajută mult, chiar și atunci când speranțele respective nu se confirmă.

Științele comportamentale au dezvăluit că identitatea personală joacă un rol critic în tipul de răspuns la orice fel de amenințare, astfel că judecățile oamenilor despre cât de mare sau de scăzut este un pericol sunt profund influențate de grupul căruia aparțin (Cass Sunstein—co-autor Nudge, carte publicată în 2008 referitoare la ce îi poate ajuta pe oameni să ia decizii mai bune).

Pandemia pare să fi accentuat și mai mult separarea părților.

Caroline Hopper, director asociat în cadrul programului referitor la identitatea americană al Aspen Institute: „punctul critic în ce privește virusul este raportul între libertate și responsabilitate colectivă.” Pentru a ajunge la esența contradicției, sugestia este ca oamenii să discute chestiuni cum ar fi: Ce restricții la nivelul libertăților sunteți dispuși să acceptați spre a-i proteja pe alții? La ce vă așteptați din partea celorlalți în raport cu dvs.? Cum v-ar părea să cooperăm/ să fim uniți în această chestiune?

 

Prejudecățile / stereotipurile cognitive, cum sunt preferințele politice, în multe privințe se bazează pe ce tip de informație consumăm, pe ce ne bazăm, ce alegem să ascultăm sau să ignorăm,” afirmă Hopper. “În multe privințe, sistemele din lumea noastră sunt setate să perpetueze asta și să răspundă la ce ne dorim să auzim. Prin proiectul Better Arguments, ne dorim ca oamenii să se bazeze mai puțin pe presupuneri și mai mult pe informații împărtășite.”

 

Prejudecățile îi fac pe oameni vulnerabili la dezinformarea propagată prin rețelele sociale

Cercetătorii au dezvoltat instrumente de evaluare pentru verigile slabe cognitive, societale și algoritmice care ajută la răspândirea știrilor false.

Una din sursele primare de informare din SUA și din întreaga lume, rețelele sociale, expune utilizatorii la conținut de acuratețe discutabilă, inclusiv teorii ale conspirației, titluri înșelătoare care atrag accesarea, conținut hiper-subiectiv, pseudo-științific și chiar efectiv știri false.

Nu este surpinzător că suntem asaltați de dezinformare. Spam-ul și fraudele online aduc mulți bani infractorilor, iar propaganda guvernamentală și politică aduc atât beneficii de partizanat, cât și financiare. Dar faptul că astfel de conținut cu grad scăzut de crediblitate se răspândește atât de rapid și de ușor, sugerează că oamenii și algoritmii folosiți de platformele de socializare sunt vulnerabili la manipulare.

Studiile au identificat 3 tipuri de „verigi slabe” care fac ecosistemul social media vulnerabil atât la dezinformarea premeditată/intenționată, cât și accidentală. Instrumentele dezvoltate de Observatory on Social Media de la Indiana University ajută oamenii să-și conștientizeze slăbiciunile în gândire și să se protejeze de influențe din afară menite să le exploateze.

Verigile slabe ale creierului

Slăbiciunile cognitive (cognitive biases) își au originea în modul în care creierul procesează informațiile cu care o persoană se întâlnește zilnic. Creierul poate gestiona doar o parte finită de informații, iar prea mulți stimuli care simultan pot duce la supraîncărcare. Acest lucru în sine are serioase implicații asupra CALITĂȚII conținutului de pe rețelele sociale. S-a dovedit că teribila concurență pentru atenția limitată a utilizatorilor înseamnă că unele idei se viralizează în ciuda conținutului de proastă calitate – chiar și când oamenii preferă să distribuie conținut înalt calitativ.*

Pentru a evita supraîncărcarea, creierul folosește niște trucuri. Aceste metode sunt de obicei eficiente, dar pot, de asemenea, să devină verigi slabe, când sunt aplicate în contexte greșite.

O scurtătură cognitivă are loc atunci când o persoană decide dacă să distribuie o postare pe care o primește pe fluxul său. Oamenii sunt foarte afectați de conotațiile emoționale ale unui titlu, chiar dacă asta nu este un indicator bun al acurateței/credibilității articolului. Mult mai important este CINE a scris textul.

Instrument de verificare: Fakey

Verigi slabe de mentalitate  

Altă sursă de prejudecăți și stereotipuri este societatea. Când oamenii interacționează direct cu semenii lor, prejudecățile sociale care îi ghidează în alegerea prietenilor ajung să influențeze informația pe care o observă.

Studiul a dovedit că este posibil să determini înclinațiile politice ale unui utilizator de Twitter doar urmărind preferințele partizane ale prietenilor săi. Cu cât interacțiunea cu alte părți ale societății este limitată, cu atât la nivelului grupului / comunității respectiv/e se poate consolida o anumită opinie sau idee – corectă sau eronată. Se creează astfel un fel de „camere-ecou” prielnice manipulării, în mod intenționat sau nu. Asta explică de ce atât de multe conversații online sunt confruntări „noi vs. ei”. Practic NU există DIALOG!

Nu există niciun demers de verificare a informației din surse credibile; iar dacă sunt menționate, acest lucru se face doar pentru a le pune sub semnul întrebării legitimitatea sau a suține contrariul a ce afirmă.  

Instrument de verificare: Hoaxy

Verigi slabe ale „mașinăriilor digitale”

A treia categorie de verigi slabe este dată direct de algoritmii folosiți pentru a determina ce se afișează online. Atât rețelele sociale, cât și motoarele de căutare apelează la ei. Aceste tehnologii sunt create să selecteze doar conținutul care generează interacțiune și așa-zis relevant. Numai că, în acest fel, reușesc de fapt să consolideze prejudecățile cognitive și de mentalitate ale utilizatorilor, făcându-i și mai vulnerabili la manipulare.

De exemplu, instrumentele de marketing integrate de multe platforme sociale permit celor care lansează și gestionează campanii de dezinformare să exploateze prejudecata confirmării (confirmation bias), livrând mesaje ajustate scopului urmărit oamenilor deja înclinați să le creadă. (Ca) într-un cerc vicios, acestora le sunt în continuare propuse mesaje similare, ceea ce îi îndepărtează de posibilitatea de evaluare corectă a unei informații, de perspective diferite, menținându-i într-o „bulă a confirmării”. Să ne gândim la rețelele sociale prin comparație cu o sursă, chiar dacă nu perfectă, totuși complexă de informare: Wikipedia.

Să mai vorbim despre „bula popularității”?! Practic, algoritmii împing și mai mult în față postări de slabă calitate, doar pentru că sunt „senzaționaliste”, „intens emoționale” sau în alt fel ajustate de cei interesați spre a atrage utilizatorii cu o „momeală”… Există inclusiv programe ce pot interacționa cu utilizatorii (social bots).

Instrument: Botometer (Aproximativ 15% din conturile de pe Twitter, de ex., par să fie astfel de socboți). Au fost folosiți în campania electorală din America. Mecanismul e simplu: filtrează utilizatorii simpatizanți ai unui partid sau ai unui politician, iar apoi le „livrează” mesaje manipulatoare din surse puțin credibile sau efectiv știri false.

Descopera seria De ce faci alegeri gresite in viata?

Surse: Scientific American

The ConversationGiovanni Luca Ciampaglia,

Assistant Research Scientist, Indiana University Network Science Institute

Imagine: sott.net

Lasă un răspuns

%d blogeri au apreciat: