Cluster Digitali Narrazione collettiva nell’era dei social network

Rassegna stampa – Press review

Legenda simboli: 📝Articolo ── 📔 Serie di articoli di blog ── 📙 Libro/Ebook online

📝 Perché abbiamo deciso di lasciare X di Elon Musk (di Valigia Blu, 28 Ottobre 2024)
(…) Il ruolo attivo nel diffondere disinformazione, a partire dallo stesso account X di Elon Musk. Meme sul “Pizzagate”, bufale su migranti provenienti da account di disinformazione (che diventano “ufficiali” grazie alla spunta blu a pagamento), la benzina gettata sul fuoco delle sommosse anti-immigrati scoppiate questa estate nel Regno Unito. In questo ruolo, Musk è riuscito persino a guadagnare il plauso del Cremlino ed è diventato di fatto uno dei principali veicoli di disinformazione al mondo nel 2024. Sempre a proposito del Cremlino, i contatti personali tra Musk e Putin, iniziati dal 2022, devono preoccupare alla luce del ruolo di aziende come Starlink, e in contesti come l’invasione su larga scala dell’Ucraina o i rapporti tra Taiwan e Cina.
Il licenziamento del team responsabile del contrasto alla disinformazione nel settembre 2023, alla vigilia di un anno in che vede più di 50 paesi nel mondo andare a elezioni, tra cui gli Stati Uniti. (…)

📝 Misinformation poses a bigger threat to democracy than you might think (By Ullrich Ecker, Jon Roozenbeek, Sander van der Linden, Li Qian Tay, John Cook, Naomi Oreskes & Stephan Lewandowsky, 05 June 2024)
In today’s polarized political climate, researchers who combat mistruths have come under attack and been labelled as unelected arbiters of truth. But the fight against misinformation is valid, warranted and urgently required.

📝 La disinformazione generata dall’Intelligenza artificiale è aumentata in un anno del 130% su X (Rai News, 07/03/2024)
A dirlo una ricerca britannica condotta da una no-profit impegnata nel contrasto all’odio online. Dalla foto di Trump con simpatizzanti afro a finte foto di schede elettorali buttate, i rischi per gli appuntamenti elettorali del 2024.
‘La disinformazione per deepfake aumentata del 130% su X’ (ANSA) – Studio, l’IA di OpenAI e Microsoft dà foto elettorali fuorvianti

📙 È vero che Internet ci chiude in una bolla? Una prospettiva critica su filter bubble e echo chamber (Axel Bruns, trad. FrancoAngeli, 2024)
L’espressione “vivere in una bolla” è diventata un modo comune nel linguaggio giornalistico e nel linguaggio quotidiano per descrivere un’esperienza di isolamento informativo, dove una persona è esposta principalmente a opinioni e prospettive simili alle proprie. Questo fenomeno è spesso attribuito alla centralità delle piattaforme online nelle nostre vite, dove i social media e altri siti web tendono a mostrare contenuti che rispecchiano le nostre preferenze e interazioni precedenti. Questo può portare a una limitata esposizione a punti di vista contrastanti e alla formazione di opinioni e idee più omogenee all’interno di determinate cerchie sociali.
Questo libro di Axel Bruns, tradotto per Edizioni FrancoAngeli, rappresenta una necessaria ricerca scientifica e intellettuale controcorrente che può consentire di uscire dalla “bolla” mentale ed emotiva che utilizziamo quando riflettiamo su questi processi. La prospettiva adottata da Bruns aiuta a chiarire quanto sia limitata e distorta la visione dell’esperienza politica online come una realtà dominata principalmente da forme di auto-segregazione informativa.
The expression “living in a bubble” has become a common way in journalistic and everyday language to describe an experience of informational isolation, where a person is exposed primarily to opinions and perspectives similar to his or her own. This phenomenon is often attributed to the centrality of online platforms in our lives, where social media and other websites tend to display content that reflects our previous preferences and interactions. This can lead to limited exposure to opposing viewpoints and the formation of more homogeneous opinions and ideas within certain social circles. This book by Axel Bruns, which we have translated for FrancoAngeli, represents a much-needed scientific and intellectual countercultural research that can enable us to get out of the mental and emotional “bubble” we use when reflecting on these processes. The perspective adopted by Bruns helps us clarify how limited and distorted the view of online political experience as a reality dominated primarily by forms of informational self-segregation is.

📝 Why journalists can’t quit Twitter. (The Platformer News, April 2023) The media should be building alternatives. Instead, some are doubling down.
Abstract: Today, Donald Trump was charged with 34 felony counts of falsifying business records in connection with a series of hush-money payments related to the 2016 US presidential campaign. His arraignment was carried live on cable news and National Public radio, but I learned of the day’s events where I still see almost everything first: Twitter, which, despite its perilous decline under Elon Musk, remains home base for the U.S. press corps even as the site itself increasingly orients itself to make fools of them.
In December, I predicted that 2023 would be the year that the media would begin its divorce from Twitter. “Elon Musk’s continued promotion of right-wing causes and personalities will push away more and more high-profile users, who find themselves increasingly put off by his shock-jock antics and whim-based approach to content moderation,” I wrote. “Alternative platforms like Mastodon, while smaller and less intuitive to use, offer a safe haven to more and more people — particularly journalists — looking for off-ramps. By the end of 2023, Twitter no longer sets the daily news agenda by default for the entire US press.”

📝 La disinformazione come fenomeno sociale e l’emersione delle logiche da “branco” (Valigia Blu, Ottobre 2022)
Il pensiero occidentale è teso a glorificare l’individuo moderno come un essere razionale, alimentando un’immensa fiducia nel singolo. Ma gli esperti di economia comportamentale hanno dimostrato, invece, che la maggior parte delle decisioni umane è basata su reazioni emotive e scorciatoie euristiche, piuttosto che su un’analisi razionale. Il premio nobel per l’economia nonché cofondatore dell’economia comportamentale, Daniel Kahnemann, ha spiegato che gli esseri umani prendono decisioni in base a due modalità: la prima basata sull’intuizione, che tende a decidere con impulsività e in base a sostituzioni (ad esempio la distanza di un oggetto è valutata in base alla nitidezza), cioè utilizzando i risultati di situazioni simili già processate, e che quindi è manipolabile e incline agli errori; la seconda basata sulla logica che decide in base a tutti gli elementi disponibili, che però tende a ritardare le decisioni quando, spesso, non ritiene di avere sufficienti elementi (…)

📝 La psicologia della disinformazione: perché è difficile correggere le false convinzioni (Valigia Blu, 2020), parte di una serie di articoli sulla psicologia della disinformazione.
📝In questa seconda parte su psicologia della disinformazione, First Draft si sofferma sul perché le correzioni (come fact-check e debunk) si scontrano sempre con grandi resistenze psicologiche. Purtroppo, infatti, una volta esposti alla disinformazione è molto difficile liberarsene. Ogni punto è accompagnato da una lettura accademica consigliata per chi volesse approfondire.

📙 The psychology of misinformation: Why we’re vulnerable. (First Draft News, Tommy Shane, June 30, 2020)
How does our psychology make us more vulnerable to misinformation? We explain the key concepts in the first of a three-part series. (articoli in parte tradotti da Valigia Blu, vedi)
The psychology of misinformation — the mental shortcuts, confusions, and illusions that encourage us to believe things that aren’t true — can tell us a lot about how to prevent its harmful effects. Our psychology is what affects whether corrections work, what we should teach in media literacy courses, and why we’re vulnerable to misinformation in the first place. It’s also a fascinating insight into the human brain.

📝 Facebook cambia l’algoritmo per contrastare TikTok (Vincos, Settembre 2022)
Gli algoritmi di Meta che regolano la distribuzione dei contenuti vengono rivisti periodicamente per migliorarne l’efficacia, un concetto che in questo caso coincide con l’obiettivo di recuperare e mostrare all’utente i contenuti che potrebbe trovare più interessanti e coinvolgenti (leggi: che lo spingano ad interagire). TikTok ha introdotto un nuovo modello di distribuzione dei contenuti, conquistando l’attenzione di un pubblico di oltre un miliardo di persone. Così è stato necessario metter mano al motore che distribuisce i contenuti, una mossa destinata a cambiare radicalmente la nostra esperienza di utilizzo del social blu.

Chi ha bucato la bolla? Come cambiano gli algoritmi di TikTok, Instagram e degli altri social (e quello che vediamo) (Corriere della Sera, Maggio 2022)
Non solo «family and friends»: le bacheche dei social si stanno diversificando, rendendo possibili anche «imprevisti felici». L’esempio di TikTok, i flussi di video e gli studi di Walter Quattrociocchi.

📔 Cosa sta accadendo sui social network in Italia (Comunicazione 2.0 Blog, 2022)
Il Center of Data Science and Complexity dell’Università La Sapienza di Roma sta analizzando oltre 100 milioni di profili. L’obiettivo è arrivare a un metro per misurare la tossicità di Facebook, Twitter e le altre piattaforme. Grazie alla legge di Godwin: basta che una discussione online sia sufficientemente lunga che verrà chiamato in causa il nazismo o Hitler. Ma il sospetto è che dietro tutto questo, specie da noi, ci sia ben altro. Una storia complessa che ha a che fare con il nostro passato e con quanto accaduto online nel 2009.

📝 «Uno studio dice che»: consigli utili per interpretare le notizie scientifiche (Facta.news, Maggio 2021, Comlab)
Capire se una notizia che parla di uno studio scientifico è attendibile non è facile e può essere sia difficile anche per gli scienziati stessi. Ci sono però, come abbiamo visto per la disinformazione in generale, alcune regole da seguire e dei semplici consigli utili ad orientarsi. Addentriamoci quindi nel mondo delle pubblicazioni scientifiche e della ricerca, e vediamo di capire come valutare le notizie di studi scientifici che appaiono (ormai regolarmente) sui media.

📝 Social network: una cassa di risonanza per argomenti controversi (La Sapienza, 24 febbraio 2021)
Un nuovo studio italiano, che ha visto il coinvolgimento del Dipartimento di Informatica della Sapienza, ha analizzato più di 100 milioni di post pubblicati tra il 2010 e il 2018 su diversi social network con l’obiettivo di valutare come si caratterizza il consumo di contenuti online. I risultati del lavoro, pubblicati sulla rivista PNAS, suggeriscono che la diffusione delle informazioni dipende tanto dalle dinamiche degli utenti in rete quanto dalle caratteristiche della piattaforma social.

📝 La grande bufala di Wikipedia sul campo di sterminio a Varsavia. È sostenuta o citata in decine di pagine e viene diffusa da gruppi di estrema destra polacchi per minimizzare l’Olocausto (Il Post, 4 ottobre 2019).
Abstract: Il giornale israeliano Haaretz ha raccontato in un lungo e dettagliato articolo la storia di quella che ha definito “la più grande bufala di Wikipedia”: e cioè l’esistenza all’interno del campo di concentramento di Varsavia (il Konzentrationslager Warschau) di un campo di sterminio dove sarebbero stati assassinati centinaia di migliaia di polacchi (200.000, si dice). Il luogo di questo campo, vicino alla stazione ferroviaria di Warszawa Zachodnia, è meta di pellegrinaggio e vi si tengono periodiche cerimonie di commemorazione. Il problema è che lì non è mai esistito alcun campo di sterminio e non ci sono prove storiche dell’esistenza di camere a gas a Varsavia.

L’estremista, Salvini e l’estrema destra per costruire la nuova Lega, di Davide M. De Luca, Il Post, 10 dicembre 2018

Numero Fake e Postverità. Monografia della rivista “Forward – Recenti progressi”.
La strumentalizzazione della disinformazione e dei pregiudizi. Uscire allo scoperto per educare la società. Ottobre 2018

📝 Trump ha vinto dando a ognuno la sua verità. Scientificamente. Rivista Strade, 2 febbraio 2017
Era il 9 novembre 2016, e molti non riuscivano a credere alle notizie provenienti da tutti gli schermi del mondo: Donald Trump aveva appena vinto le elezioni e stava per diventare presidente degli Stati Uniti. Pochissimi, anche tra i più eminenti analisti, si aspettavano un esito del genere.
Immediatamente ci si è rivolti contro gli esperti che avevano sbagliato previsioni e sondaggi, indicando le loro peggiori nefandezze e di non aver saputo prevedere le reazioni dell’uomo comune, la “working class” e la gente della strada.
In realtà, secondo un dossier di Hannes Grassegger e Mikael Krogerus basato su un report di Das Magazin la questione non è che “gli esperti” abbiano perso le elezioni perché assaliti dal terribile gender o dall’insidioso radicalchicchismo, ma ha più a che fare col fatto che ben pochi esperti abbiano capito e usato la giusta metodologia. Come le Big Five nell’ambito della Psicometria del ricercatore Michael Kosinsky o il loro uso da parte di Cambridge Analytica.


Sezioni correlate

🔗 Bibliografia I libri di testo adottati nel Comlab o suggeriti
🔗 Scientific Literature La letteratura scientifica sui social media, obbligatoria per gli studenti del Comlab.
🔗 Didattica Live Selezione stampa Altri articoli selezionati


Digital Clusters Updates – archivio

Paper.li ha chiuso il 20 aprile 2023. Su questa piattaforma veniva pubblicato il webmagazine in lingua inglese Digital Clusters Updates generato dai bot e crawler della stessa Paper.li – società di content curation con sede in Losanna. Costruito automaticamente sulla base di parole chiave generali (fake news, social media, disinformation, misinformation, algorithm, sociology, psychology, ecc.) su articoli liberamente consultabili in rete, si può visualizzare liberamente a questo indirizzo e ci si può eventualmente iscrivere per avere notizia degli aggiornamenti.

Subscribe to the Digital Clusters automatic Update here: it’s a Webmagazine, not-periodical, automated post-only magazine about communication, digital media, sociology, psychology and technology issues related (also) to fake news and narrative clusters. You won’t be ever subscribed if you don’t wanto to, since it’s not a newsletter. Made by paper.li a company based in Losanna (CH).

Vedi anche

🔗 Comunicazione 2.0 blog
🔗 Cluster Digitali blog