"I DATI di Facebook rappresentano il più ampio studio sul campo nella storia del mondo". Forse con un pizzico di esagerazione, ma in fondo cogliendo nel segno, Adam Kramer - membro del Data science team del social network - aveva spiegato anni fa la scelta di entrare nel gruppo californiano. Lo studio appena pubblicato su Proceedings of the national academy of sciences e condotto insieme ad altri scienziati della University of California e della Cornell gli dà ragione. È infatti attraverso quella sterminata arena sociale planetaria che ha potuto dare sostanza a ciò che in molti sospettavano: ciò che gli altri postano su Facebook, e che noi visualizziamo in bacheca, ci influenza emotivamente. Tanto da spingerci, nel periodo successivo, a pubblicare a nostra volta contenuti sulla stessa lunghezza d'onda. O meglio, ad allinearci al clima che si respira sulla nostra newsfeed.
Facebook manipola i post e dimostra che le "emozioni sono contagiose"Navigazione per la galleria fotografica1 di 12Immagine PrecedenteImmagine SuccessivaSlideshowUno studio capitanato da Adam Kramer, membro del Data science team di Facebook, prova in maniera significativa che le emozioni dei nostri amici, espresse attraverso post e frasi che la bacheca sceglie di mostrarci in base a raffinati algoritmi, influenzano quello che pubblicheremo sul social network. E dunque che, in qualche modo, i sentimenti - o quantomeno attitudini positive e negative - tendono a propagarsi di conseguenza, in un gioco di reciproche influenze. L'indagine, condotta su 689mila utenti insieme alla University of California e alla Cornell, è un'ulteriore testimonianza delle possibilità manipolatrici dei sistemi che gestiscono le dinamiche della piattaforma fondata da Mark Zuckerberg. Non solo acquisti, marketing e profilazione ma, dunque, anche gestione delle emozioni. (A cura di Simone Cosimi)Uno studio capitanato da Adam Kramer, membro del Data science team di Facebook, prova in maniera significativa che le emozioni dei nostri amici, espresse attraverso post e frasi che la bacheca sceglie di mostrarci in base a raffinati algoritmi, influenzano quello che pubblicheremo sul social network. E dunque che, in qualche modo, i sentimenti - o quantomeno attitudini positive e negative - tendono a propagarsi di conseguenza, in un gioco di reciproche influenze. L'indagine, condotta su 689mila utenti insieme alla University of California e alla Cornell, è un'ulteriore testimonianza delle possibilità manipolatrici dei sistemi che gestiscono le dinamiche della piattaforma fondata da Mark Zuckerberg. Non solo acquisti, marketing e profilazione ma, dunque, anche gestione delle emozioni. (A cura di Simone Cosimi)undefinedundefinedundefinedundefinedundefinedundefinedundefinedundefinedundefinedundefinedundefined[x]Uno studio capitanato da Adam Kramer, membro del Data science team di Facebook, prova in maniera significativa che le emozioni dei nostri amici, espresse attraverso post e frasi che la bacheca sceglie di mostrarci in base a raffinati algoritmi, influenzano quello che pubblicheremo sul social network. E dunque che, in qualche modo, i sentimenti - o quantomeno attitudini positive e negative - tendono a propagarsi di conseguenza, in un gioco di reciproche influenze. L'indagine, condotta su 689mila utenti insieme alla University of California e alla Cornell, è un'ulteriore testimonianza delle possibilità manipolatrici dei sistemi che gestiscono le dinamiche della piattaforma fondata da Mark Zuckerberg. Non solo acquisti, marketing e profilazione ma, dunque, anche gestione delle emozioni. (A cura di Simone Cosimi)L'obiettivo era esattamente quello: capire se l'esposizione a manifestazioni verbali affettive possa condurre "a espressioni verbali simili". In altre parole, se ciò che leggiamo sulla piattaforma di Menlo Park - frutto di un certosino lavoro di algoritmi e non del caso, bisogna ricordarlo - possa contagiarci emotivamente. Due i test condotti nel gennaio 2012. Nel primo i ricercatori guidati da Kramer hanno ridotto l'esposizione degli utenti inclusi nel gruppo sperimentale ai contenuti positivi degli amici. Nel secondo hanno proceduto allo stesso tipo di schermatura ma con post e frasi contenenti elementi di negatività. Decidendo quali dei tre milioni di aggiornamenti di stato lasciar passare attraverso un software di analisi testuale, il Linguistic inquiry and word count, e analizzando poi le pubblicazioni per una settimana.In effetti dai 689mila account inclusi nel monumentale esperimento è uscito quanto già intuiamo - altrimenti perché faremmo fuori hater di professione, rompiscatole o frustrati incalliti? - ma in precedenza poche indagini avevano provato in modo così significativo. Veicolare certi tipi di contenuti, escludendo termini e parole positivi o negativi, ha condotto a una conseguente riduzione dello stesso tenore nei post delle varie cerchie prese in esame. In particolare quando sono state artificialmente ridotte le positività. La ricerca è stata realizzata in base alle autorizzazioni fornite dagli utenti nella Data use policy al momento dell'iscrizione e senza dunque sottoporre a ricercatori in carne e ossa alcun contenuto effettivo. Almeno così assicura il team che ci ha lavorato. Il dato interessante sta tuttavia, oltre che nel merito - già sondato per esempio da un'indagine da Ke Xu, professore di computer science all'università di Pechino, sui social cinesi - anche e soprattutto nel metodo. Inquietante quanto, appunto, in fondo già ampiamente noto. Dimostra infatti gli effetti che si possono ottenere manipolando gli algoritmi che scelgono cosa mostrarci quando accediamo a Facebook. Non solo, dunque, atteggiamenti, scelte e profilazione per indirizzare acquisti e preferenze: lo studio uscito su Pnas prova come anche le emozioni siano non solo contagiose - non serve la scienza, basta uscire la sera con un amico giù di corda o un altro particolarmente brillante per capirlo - ma di fatto manipolabili. Almeno in quell'universo parallelo ma sempre più intrecciato delle piattaforme sociali. Siamo troppo suggestionabili, cantava Paolo Benvegnù qualche anno fa, per riuscire a sottrarci alla dittatura degli algoritmi. Che ci ritagliano il mondo a loro uso e consumo. Non mancano le polemiche su questo esperimento fatto sul social network più popolare. In passato erano stati fatti altri studi comportamentali ma i ricercatori avevano lavorato sulla semplice analisi del flusso naturale. Questa volta è stato diverso: per la prima volta sono stati alterati i dati per registrare le reazioni. Facebook ribadisce che lo studio è assolutamente legale. Ma alla domanda su quanto sia etico una risposta ancora non c'è.Così Adam Kramer ha risposto alle tante critiche sollevate da osservatori e utenti: "Abbiamo svolto la ricerca perché abbiamo a cuore l'impatto emotivo di Facebook e delle persone che usano la piattaforma - ha scritto il ricercatore sul suo profilo - sentivamo che era importante indagare la presunta preoccupazione comune nelle persone che, vedendo post positivi, iniziano a provare sensazioni negative o lasciano la piattaforma. Così come eravamo interessati all'esposizione alle negatività degli amici. Queste ragioni non sono state indicate chiaramente nel paper". Quanto alla metodologia, lo scienziato si è giustificando asserendo di aver coinvolto appena lo 0,04% degli utenti, uno su 2.500 per un brevissimo periodo. "Nessun post è stato nascosto, semplicemente non è stato mostrato con evidenza in alcune newsfeed - ha aggiunto - l'esperimento ci ha condotto all'esatto contrario di ciò che si pensa: le emozioni positive ne incoraggiano di simili". Insomma, l'obiettivo non era certo turbare l'opinione pubblicaOAS_RICH('Bottom'); e gli utenti. "Posso capire perché alcune persone abbiano avuto delle preoccupazioni, io e i miei coautori ci scusiamo per il modo in cui il documento ha descritto la ricerca e per ogni ansia possa aver provocato", ha concluso il data scientist. Quanto alle policy interne per questo genere di esperimenti, ha assicurato Kramer, è passato molto tempo dal 2012, molto è cambiato e molto, anche in base a quanto accaduto con la ricerca in questione, cambierà.
Nessun commento:
Posta un commento