Ако вие, подобно на болшинството американци, узнавате новостите от социалните мрежи, то това значи, че паралелно вие получавате ежедневна порция лъжи, непроверени слухове, страшилки в духа на теорията на заговора, и невярно сформулирани съобщения. Когато всичко това е размесено с достоверна информация от надежни източници, да се докопаеш до правдата става много трудно.
Както показа анализът на данните, събрани от Колумбийският университет в рамките на програмата Emergent, която се занимава с изучаване на слухове, дезинформацията става обект на вирусно разпространение почти толкова често, както и надежните сведения (с анализ на данните се занимаваше команда изследователи под мое ръководство).
Мнозина питат, не е ли повлиял този натиск на електронна дезинформация на резултатите от американските избори през 2016 год. Честно казано, ние не знаем това, но има всички основания да предполагаме, че такова влияние би могло да има място, отчитайки опитът на предишните изследвания и сведенията, постъпващие от други страни. Всяко невярно съобщение въздейства на формирането на нашата гледна точка. Резултиращата вреда от дезинформация може да бъде напълно реална — ако въведените в заблуждение люде са готови да рискуват живота на собствените си деца, както в случая с отказ от обезателните ваксини, то какво ще им попречи да поставят под въпрос нашата демокрация?
Бъдейки специалист по въпросите за распространение на дезинформация чрез социалните мрежи, аз съм съгласен с това, че Google и Facebook направиха стъпка във вярната посока, опитвайки се да ограничат възможностите на новостните фалшификатори да спечелят от реклама. Но тази стъпка не ще спре политически мотивираните нарушители.
Как се разпространяваха предизборните новости по хештагове #ImWithHer (за Хилъри Клинтън) и #MakeAmericaGreatAgain (за Доналд Тръмп): с точки са означени твитер-акаунти, линиите между тях изобразяват ретвитове. Диаметърът на точките зависи от количеството ретвитове, произведени от акаунта. С червен цвят са отблязани акаунти, които с висока степен на вероятност са ботове, със син — акаунти на реални ползватели
Clayton Davis
Експлуатация на социалните мрежи
Преди десет години аз със свои колеги провеждах експеримент, в хода на който ние открихме, че 72 процента от студентите на колежи доверяваха на линкове, като че получени от приятели — до там, че те споделяха лични логини на фишингови сайтове. Толкова разпространена доверчивост подсказа и друга форма на злонамерена манипулация: ползвателите ще повярват на дезинформация, кликвайки на връзка дошла от някой от мрежевите контакти.За да проверя тази идея аз създадох фалшива веб страница със случайни, генерирани от компютър новости в стила на жълтата преса, нещо от рода на: «Знаменитост Х в леглото със знаменитост Y!» Въвеждайки в търсачката името на знаменитост, посетителите на сайта пускаха скрипт, който автоматически фабрикуваше бележка за този човек. Аз сложих на сайта предупреждение, че тук се показват безсмислени текстове и фалшиви «факти». Също така сложих на страницата рекламни обявления. В края на месеца дойде чек — пари, заработени от показването на реклами. Те и послужиха за доказателство: фалшивите новости могат да носят пари, попътно замърсявайки интернет с лъжа.
За съжаление аз бях не единственият, комуто бе дошла в главата такава идея. След десет години възникна цяла индустрия по производство на фалшиви новини и разпространение на дезинформация в интернет. Сайтове с развлекателен «боклук» контент произвеждат фалшивки, за да заработват от реклама, в същото време докато сайтове на свръхлоялни политически активисти публикуват и разспространяват слухове и дезинформация в духа на теории на заговора с цел да повлияят върху общественото мнение.
Тази индустрия набира сила благодаря това, че днес е много леко да се създаде бот или фалшив акаунт в соцмрежите, който се управлява от програма, но се преструва на жив човек и благодаря това е способен да бъде влиятелен. В хода на изследването ние открихме множество фалшиви инициативни кампании, които е прието да се обозначават с термина «астротърфинг» (англ. astroturfing — имитация на обществено мнение с помощта на соцмрежи).
В отговор ние разработихме системата BotOrNot, която разпознава ботове в социалните мрежи. Тя не е идеална, но нейните резултати са достатъчно акуратни, че да разпознаят кампании, насочени на агитация в полза на Brexit или против ваксините. Използвайки BotOrNot, наши колеги откриха, че голяма част от онлайн-обсъжданията, посветени на скорощните избори на американски президент бяха инициирани от ботове.
На тази илюстрация е изобразено разпространението на хештага #SB277, събирщ съобщения по повод калифорнийският закон за ваксинация. С точки са обозначени твитер-акаунти, разпространяващи този хештаг, линиите между тях изобразяват ретвитове и изпращане на твитове с този хештаг. Диаметърът на точките зависи от количеството ретвитове, произведени от акаунта.С червен цвят са отбелязани акаунти, които с висока степен на вероятност са ботове, със син — акаунти на реални ползватели.
Onur Varol
Създаване на информационни балони
Хората е твърде леко да се манипулират с помощта на дезинформация в соцмрежите, доколкото това способства сложно съчетание от социални, когнитивни, икономически и поведенчески установки, разделяеми от всички нас. Някои от тях са изиграли положителна роля в хода на еволюцията: доверие към сигнали, изходящи от близкото обкръжение, и скептицизъм по отношение към сведения, противоречащи на собственият опит, са помогнали на нашите предци да се научат да избягват зъбите на хищниците. Но в днешният затворен свят на мрежево общуване сигналите, постъпващи до мен от соцмрежа от привържъник на теорията на заговора, живеещ на другия край на света, ми пречат да вземам премерени решения.
«Разшервайки» съобщения от приятели и «отписвайки се» от тези, чиито мнения се отличават от нашите, ние се оказваме в толкова полярно ориентирана «ехокамера», че само по списъка на вашите приятели изследователите с висока точност ще кажат, какъв сте вие — либерал или консерватор. Структурата на социалната мрежа е толкова плътна, че дезинформацията във отделна група се разпространява практически мълниеносно, и в същото време дотолкова раздробена, че другите групи за нея нищо не знаят.
Във нашия «балон» ние получаваме само специално отбрана информация, съвпадаща с нашите убеждения. Такъв сценарий е идеален за повишение нивото на общителност, но губителен за развитие на здрав скептицизъм. Прекалената увереност в своята правота води до това, че ние «шерваме» заглавието, без да четем самата статия.
Нашата лаборатория извлече подобен урок на собствен опит, когато в преддверието на промеждутъчните избори в Америка през 2014 год стана обект на злостна дезинформация. Изучавайки активността на соцмрежите, ние се натъкнахме на фалшиви сзобщения за нашите изследвания, които се разпространяваха предимно чрез твитер във едностранно ориентирана «ехокамера» — голямо, еднородно и политически активно съобщество. Тези хора мълниеносно ретвитваха фалшиви съобщения, но бяха крайно скъпи на опровержения.
На тази схема «ехокамери» в твитер, виолетовите точки обозначават ползватели, разпространяващи лъжливи сведения за изследователският проект Truthy. Два акаунта, опитали се да опровергаят дезинформацията, са означени с оранжев цвят отляво.
Giovanni Luca Ciampaglia
Вирусно разпространение
Нашето изследване показва, че при съществуващата структура на социалните мрежи и ограниченото внимание на ползвателите някои мемове, независимо от тяхното качество неизбежно стават вирусни. Нека даже отделни ползватели се стараят да споделят проверена информация, соцмрежата като цяло не е способна да отличи правдата от фалшивка. С това се и обясняват всички вирусни «фейкове», гуляещи по интернет.
За останалото ще се погрижи «икономиката на вниманието»: ако някоя тема излиза в топ, свързаната с нея информация започва да се произвежда с ускорени темпове. При това да се фабрикува новост, представяйки я за факт е далеч по-евтино, отколкото да се добива правдива информация. При това да се фабрикува може за всеки вкус: консерваторите прочетоха, че папа Римски поддържал Тръмп, либералите прочетоха, че той поддържал Клинтън. А на практика той не поддържал никого.
Цялата работа е в алгоритмите
След като все едно не можем да прегледаме всички съобщения от информационната лента, отборът на това, което видим, вземат на себе си алгоритми. Алгоритмите, използвани в днешните соцмрежи, настроени да присвояват висок приоритет «зацепващи» постове — на които ние с голяма вероятност ще кликнем, отреагираме, с които възможно ще споделим. Но неотдавнашните изследвания показаха, че страниците с нарочна дезинформация получават същият отклик и се разпространяват също така широко, както и истинските новости.
Превзетостта на алгоритмите, предпочитащи да показват «зацепващи» новости в замяна на правдивите, усилва присъщата ни превзетост от социален и когнитивен характер. В резултат, преминавайки по връзки в социалните мрежи, ние сами си свиваме кръга посещаеми ресурси, правим го по-еднороден, отколкото би било в случая на самостоятелно търсене на информация в мрежата и прехода по най-популярни връзки.
Съществуващите изследвания показват, че «ехокамерата» е способна да направи попадналите в нея хора по-доверчиви по отношение към непроверени слухове. Но ние още малко знаем защо хората различно реагират на конкретен «фейк»: едни го споделят незабавно, а други първо се стараят да го проверят.
За да изучим това състезание между тези, които бездумно «шарят», и тези, които проверяват информацията, ние моделирахме изкуствена социална мрежа. Така се надяваме да се определим в противоречивите данни, че в някакви ситуации проверката на данни помага да се спре разпространението на фалшиво съобщение, а в други — не. Получените от нас предварителни резултати позволяват да се предположи, че колкото повече е затворено съобществото на тези, които вярват на фалшивката, толкова повече тя живее. И това се отнася не само до самата фалшивка, но и до социалната мрежа като цяло.
Мнозина се опитват да разберат какво да правят с това нататък. Съдейки по неотдавнашното заявление от Марк Цукерберг, Facebook вече изпитва възможни решения. А група студенти предлага просто да се отбелязват линковете при «шерване» като «достоверни» или «недостоверни».
С някакви възможни механизми за решение на тази задача ние засега не разполагаме. Например, ние засега не можем да научим изкуственият интелект да отделя правдата от лъжата. Но ние можем да създадем алгоритъм, който ще присвоява по-висок рейтинг на ресурси с по-добър показател на надежност.
Как се разпространяват фалшивки
За да може по-ефективно да се борим с новостни «партенки», е необходимо да се разберат пътищата на тяхното разпространение. Например, ако се изясни, че за голяма част «фейкове» са отговорни ботове, ние ще се концентрираме на тяхното търсене. Ако, напротив, работата е в «ехокамерите», то възможно, следва да разработим такива алгоритми на препоръчване на новости, които не ще изключват различни гледни точки.
Затова нашата лаборатория разработва платформата Hoaxy, способна да проследи и визуализира пътищата на разпространение на непроверени и съответстващи им надежни съобщения в соцмрежите. Тези данни, получени от реалният свят ще заредим в нашата изкуствена соцмрежа и тогава ще можем да пробваме различни способи на борба с фальшиви новости.
Hoaxy също е способна нагледно да покаже на ползвателите как леко с помощта на информация от мрежите може да се манипулира тяхното мнение — и даже доколко леко мнозина от нас са готови да споделят фальшиви новости. Hoaxy ще стане част от пакета програми от нашата Обсерватория за социални медиа, която позволява на всеки човек да проследи разпространението на мемове чрез твитер. Обединявайки в едно такива програми, ползвателите, привикнали да проверяват информацията, и соцмрежите, може да сведем до минимум дублиране на усилията и да повишим взаимопомощта между тях.
Много важно е да се обединят усилията за изучаване на тези въпроси. Нужни са ни всички: IT-специалисти, социолози, икономисти, журналисти, — и всички партньори от IT-индустрията са длъжни да сътрудничат, за да поставят заслон на разпространението на дезинформация.
Превод от англ. Татяна Тепер
https://nplus1.ru/material/201...
No comments:
Post a Comment
Коментарът ви ще бъде модериран и след това включен към блога. Възможно е публикуването му да се забави по тази причина, за което моля да ме извините.