Книга Борислава Козловского «Максимальный репост»

Автор собрал в одном месте факты о распространении, потреблении и восприятии информации. Получилась стройная последовательная история от газетных уток до машинного обучения.

Послушать мысли автора на тему можно в выпуске подкаста «Читатель».

Конспект получился большим, поэтому собрал некоторые интересные выводы:

  • пропаганда лучше всего работает в условиях единственного источника информации;
  • есть СМИ, которые занимаются только придумыванием фейковых новостей;
  • политическая ориентация зависит от генов и возраста;
  • специалисты Кембридж Аналитики научились по лайкам оценивать психотипы людей и точно таргетировать по ним рекламу ;
  • мы склонны больше верить информации, с которой изначально согласны;
  • решение доверять ли информации в соцсетях мы делаем на основе аватарки автора («система 1»);
  • у нас есть близкий круг друзей, на мнение которых мы ориентируемся («слои Данбара»);
  • фальсифицировать полёт на Луну было бы дороже настоящего полёта;
  • математические раскладки на тему «всё тайное становится явным»;
  • мы склонны дружить с теми, кто разделяет наши взгляды, поэтому другим точкам зрения трудно попасть в наш «информационный пузырь»;
  • алгоритмы машинного обучения могут с 86% точностью предсказать судьбу пассажиров Титаника по их анкетным данным.

Фейк ньюс

Хотя термин «газетная утка» известен с 18 века, пик популярности «фейк ньюс» пришелся на выборы Трампа.

Фейки представляют серьёзную опасность. Например, они стали поводом для теракта в США или самосуду в Индии.

Теперь фейками занимаются ученые и пишут в журналах. По результатам их исследований, по сравнению с настоящими новостями фейки собирают больше лайков и распространяются быстрее и дальше.

По теории информации неожиданность представляет большую ценность. В пустыне от прогноза «завтра засуха» ничего не поменяется, в то время как новость «завтра — снег» крайне важная.

Движущая сила фейков — обычные люди, без помощи масонской ложи и теневого правительства. Нет влиятельных звеньев, ответственных за манипуляции. Фейки репостят не самые популярные люди и блогеры, это даёт им ощущение важности и гонимого меньшинства.

Некоторые «СМИ» с названиями, мимикрирующими под Таймс, занимаются тем, что придумывают фейки с нуля. Они тупо популярнее — на них больше кликают, а, значит, больше денег от рекламы. Эти «СМИ» не боятся разоблачения и потери аудитории, потому что её у них нет. Никто не заходит на эти сайты из закладок — весь трафик идёт через ленту соцсетей.

Пропаганда

До Первой мировой пропаганда была благородным делом и относилась к проповедованию религии в развивающихся странах. После — чем-то мерзким и неприятными.

Во время Второй мировой в СССР у населения изымали радиолы, чтобы не было альтернатив в поступающей информации. Только так работает пропаганда.

Влияние пропаганды просчитали на примере геноцида в Руанде. Там был только один источник — радио. И холмистая местность — в некоторые деревни сигнал не доходил из-за рельефа. Ученый собрал формулы из физики и разметил на карте страны деревни по уровню приёма сигнала. В деревнях с хорошим приёмом уровень насилия и количество жертв был значительно больше.

Ещё он обнаружил, что насилие подскакивает после определённого порога в количестве сторонников. Небольшая группа скептиков может удерживать деревню от тотального насилия.

Почему пропаганда так хорошо работает в эпоху, когда источников информации больше одного — тв, интернет и соцсети? Объясняют специалисты из Кембридж Аналитики.

Есть старая система психотипов. Специалист по работе с данными из Кембридж Аналитики создал математическую модель, которая по анализу лайков в Фейсбуке давала человеку оценку по этим 5 психотипам.

Кембридж Аналитика помогала штабу Трампа в его кампании. Знание психотипа человека помогало показывать ему прицельную рекламу. Сторонникам оружия, например, показывали руку вора и разбитое стекло с посылом, что Трамп защитит вас и гарантирует вам личный ствол. Причем противникам оружия эту рекламу не показывали.

Мощь Кембридж Аналитики была в количестве доступной им информации. Они смогли собрать открытые личные данные из Фейсбука. Люди проходили тест типа «узнай какой ты покемон» и ставили галочку под согласием на «обработку ваших данных». Это согласие в то время позволяло собрать не только их данные, но и данные всех их друзей по Фейсбуку.

Мозг и мышление

Люди склонны обращать внимание только на те факты, которые согласуются с их текущей точкой зрения — это называется ошибкой подтверждения.

Атака на чьи-то убеждения только подтверждает эти убеждения.

Память перезаписывается в каждый момент обращения к ней. Есть эксперименты, когда люди «по памяти» описывают детали несуществующих событий. Исследования при помощи МРТ показали, что в такие моменты в мозгу действую участки, отвечающие за воспоминания, а не за выдумку нового. То есть мозг действительно «вспоминает» несуществующее.

Новая информация не должна конфликтовать со старой, поэтому старую можно подправить.
Секта, которая не дождалась инопланетян к определённое дате, убедила себя, что инопланетяне не прилетели, потому что это они своими молитвами отменили пришествие.

Когда людям предлагают мнение эксперта, то его «вес» для принятия решения зависит от того какую точку зрения он поддерживает, совпадает ли она с их мнением. Проверено на
демократах и республиканцах.

Мозг излишне оптимистичен. Молодожены не могут трезво оценить свои шансы. Даже юристы по бракам не могут, хотя у них есть вся статистика.

Точнее всего оценки дают люди в депрессии.

Мозг и политика

Политическая ориентация зашита в генах. Воспитание играет меньшую роль — проверено на однояйцевых близнецах.

Ученые нашли разницу в работе мозга у либералов и консерваторов. ФМРТ и ЯМРТ видят в реальном времени активности зон мозга. Людей кладут в аппарат и следят за реакцией, например, на картинки. У разных людей на один и те же картинки «загораются» разные участки мозга.

Информация и круг друзей

Двое из трёх взрослых людей потребляют новости через социальные сети.

В ленте Фейсбука такая новость выглядит так: лицо человека на аватарке, заголовок новости, кусочек текста, крупная иллюстрация и бледным серым текстом написано название источника.

Когда мы листаем ленту, то на каждый пост остаётся очень мало времени. Мозгу нужно быстро решить, доверять этой новости или нет. Тут срабатывает «система 1» — быстрое мышление из работ Канемана и Тверски (книга «Думай медленно... решай быстро»). Получается, что мозг не успевает собрать всю информацию и сделать взвешенный вывод. Чаще всего решение принимается только по фотографии человека — нравится нам он или нет.

Число Данбара. Антрополог Робин Данбар наблюдал за приматами и заметил связь между размером новой коры мозга и размером стаи: чем больше неокортекс, тем больше стая.

Он экстраполировал эти данные на человеческий мозг и получил, что средний размер человеческой общины должен быть около 150 особей. Это число очень похоже на численность роты в римской армии или средний размер деревень.

Развив тему, учёный разделил эти 150 человек на слои:

  1. 5 — близкие друзья, они придут на помощь в случае проблем;
  2. 15 — приятели, на них приходится 60% общения;
  3. 50 — с кем общаешься от случая к случаю.

В 2007 году он проверить эти теоретические числа на основе анализа данных по 6 миллиардам телефонных звонков. Он разделил людей на группы по частоте и продолжительности звонков друг другу — получились такие же цифры.

Для поддержания этой связи нужно общение — в какой садик отдал детей, как искал квартиру, какие проблемы на работе. Нельзя достигнуть такого уровня общения с 5000 френдами — не хватит часов в сутках.

Как исследования Данбар связано с потреблением информации в соцсетях?
Получается, что для вывода «все так делают» нам достаточно информации от нескольких людей из близкого круга: для нашего мозга «все» — это те 5 близких человек. Увидел два репоста от друзей и уже автоматически делаю вывод, что 40% людей думают так же (а со мной — уже 60%!).

Слухи и «письма счастья»

Через распространение слухов мы боремся со внутренними страхами. Сложно признаться «Я боюсь вторжения японцев», но легко распространять слухи о захвате японцами Гавайев.

Есть сайт, который методично собрал все слухи и условно разделил на категории. Хотя нет ещё нет алгоритма, который отличил бы слух от правды, исследователи из Фейсбука смогли отличить записи со слухами от других: по наличию в комментариях ссылки на сайт со слухами :-) В любую заметку со слухом обычно рано или поздно приходят разоблачители.

Некоторые слухи выдуманы от начала до конца. Другие — основываются на реальных фактах, но додумывают вывод. Например, в Индии действительно поливали поля Кока-Колой, но не потому что она ядовитая, а потому что она очень сладкая. Сахар привлекает муравьёв, которые поедают личинки тли.

Достоверности любому слуху может придать фотография. В этом случае недостоверность содержится в подписи к ней.

«Письма счастья» были популярны ещё до Первой мировой. Даже Гоголь и Блок переписывали от руки такие письма, запечатывали их в конверты и отправляли дальше.

Теории заговора

Ученые умеют вычислять всех известных хищников по изменениям в популяции животных, которыми те питаются. Даже если самого льва никто не видел, можно легко заметить, что антилоп стало меньше.

ЦРУ применило этот принцип в 1959 году для поиска ядерных объектов под Екатеринбургом. На фотографии в Огоньке главного пульта с электростанции они посчитали всех потребителей электричества в области и просто убрали известные (заводы, школы и т.д.).

Один из американских учёных по такому же принципу понял, что начался проект над атомной бомбой — пропали публикации лучших специалистов в этой области.

Ещё по этому принципу можно доказать, что глобальная организация масштаба тайного правительства не может существовать — косвенные признаки её существования невозможно скрыть.

Животное размера лохнесского чудовище ело бы так много рыбы, что это тоже можно было бы заметить. Даже без самого чудовища. А снежный человек бы просто умер от голода — в горах в принципе нет столько еды.

С помощью конспирологии наш мозг пытается найти простое объяснение сложного мира. Как ни парадоксально, но мы хотим верить, что принцессу Диану «заказала» королевская семья, потому что так проще и «рациональнее».

На луне не бывает облаков, но на фотографиях Нила Армстронга с луны не видно звёзд. Этот довод приводят в пользу того, что высадку снимали в павильоне. Но ровно так же звёзд не видно на фотографиях с земли, если не специально не выкручивать выдержку.

Мы ошибочно уверены, что знаем некоторые базовые вещи, а на самом деле — нет. Когда людей попросили нарисовать простой велосипед — справились не все. Кто-то ставит оба колеса на несгибаемую раму, другие — сцепляют цепью оба колеса.

Конспирология и ложь

Чтобы инсценировать полёт на луну, потребовалось бы задействовать большее 400 000 человек — столько работало в то время в НАСА.

А чем больше людей знают секрет, тем больше шанс, что кто-то его выдаст. Рано или поздно найдётся свой сноуден, который выдаст секрет из-за мук совести или жажды славы.

На основе статистических данных о прошлых разоблачениях ученые сделали модель, предсказывающую сколько мог бы храниться в тайне секрет в зависимости от количества знающих о нём людей.

Они посчитали, сколько людей должно было быть в курсе разных теорий (опасность прививок, полёт на луну, лекарство от рака) и модель предсказала, что в сроки в 3-5 лет кто-то должен был точно выдать секрет.

Другие прагматичные люди посчитали, что сделать фальшивый полёт на луну было бы гораздо сложнее, чем реальный: все эти декорации, болванки, прямой эфир и радиоволны с Луны.

Лгать в принципе сложно. Исследования мозга лгущего человека показывают бешеную активность — ему нужно одновременно придумывать детали, следить за реакцией собеседника, докручивать ложь находу и ещё помнить, что он уже соврал до этого.

Человек, которого попросили скрывать от собеседника какой-либо факт (например, свою сексуальную ориентацию), хуже справлялся с тестами и дольше давал ответы. Часть его когнитивной мощности была занята созданием и поддержанием лжи.

Новости, соцсети и фильтры

Фейсбук проводил исследование: группе пользователей алгоритм строил ленту из только позитивных постов; другой группе повезло меньше — им алгоритм показывал больше негативных постов. Результат исследования показал, что эмоциями можно заразить: люди из первой группы сами стали писать более позитивно, а из второй группы — наоборот.

Сила нескольких рукопожатий: если бросить курить и написать об этом пост, есть шанс повлиять на друзей наших друзей. Один такой пост вряд ли поможет, но есть шанс, что человек увидит сразу несколько постов на эту тему от друзей своих друзей.

Другой эксперимент: в 2010 году Фейсбук показывал призыв пойти на выборы. Один вариант показывал призыв проголосовать и кнопку «Я уже проголосовал», а другой — то же самое, но ещё шесть фотографий друзей, которые уже нажали эту кнопку. Результаты второго варианта были выше в четыре раза.

Парадокс дружбы. Математически доказанный парадокс — в среднем у наших друзей больше друзей, чем у нас. Объясняется тем, что чем больше у человека друзей, тем выше шанс что его добавят в друзья. А тысячи друзей такого популярного друга сразу меняют среднее количество друзей в любом «обычном» круге.

Люди чаще делятся чем-то позитивным: съездил в отпуск, сходил в спортзал, поменял имидж. Рутиной и обыденностью делятся реже. От этого лента соцсетей пестрит активной жизнью и кажется, что жизнь друзей состоит только из отпусков и вечеринок.

Пузырь фильтров (информационный пузырь). Люди склонны дружить по интересам: либералы с либералами, рыбаки — с рыбаками. Мы сами формируем нашу ленту, чтобы там было меньше того, с чем мы не согласны. Так получаются замкнутые сообщества, куда не доходит информация из других кружков по интересам.

Следствие такого «пузыря»: ощущение, что «все обсуждают это». На самом деле «все» — это пара сотен друзей, а в масштабе целого города — капля в море.

Соцсетям нужны наши лайки, они стремятся угодить нам и собрать ленту, у постов в которой будет выше шанс получить лайк. Поэтому они используют знание о «пузыре» и подстраивают ленту пользователя под его взгляды. Лайкнул фотку мотоцикла — получай сотни фоток мотоциклов.

Получается, каждая запись в нашей ленте проходит несколько этапов отбора: наши друзья выбирают, что постить; из этих записей фейсбук выбирает, что показать; из всей ленты наш мозг выбирает, на что обратить внимание и кликнуть. В целом, доля алгоритмов соцсетей не так велика, по сравнению с [неосознанной] работой мозга наших друзей и нашего собственного .

Информация и машинное обучение

Что может машинное обучение: по анкетным данным пассажиров Титаника (пол, возраст, класс каюты, в каком порту поднялся на борт) алгоритм с 86% точностью предсказывает выжил он или нет.

Алгоритмы машинного обучение переводят доступную информацию в набор признаков, каждому признаку назначает вес. Сначала алгоритм назначает вес признакам наугад, потом итоговый балл сверяет с результатом и вносит коррективы в веса. Так повторяется много раз и на выходе получаются точные веса для каждой входной характеристики.

Нейросети — самый известный пример машинного обучения (но не самый эффективный). Название намекает на сходство алгоритма с нейронами в мозгу. Информация проходит через множество маленьких узлов, где ни один не принимает конечного решения, но учитывается итоговое мнение всей совокупности.

Самые точные результаты показывают «ансамбли» из разных алгоритмов. Сначала доступную информацию «скармливают» самым грубым алгоритмам, а результат их работы уже обрабатывают другие алгоритмы.

При каждом входе в соцсети алгоритмы выбирают какие из тысяч доступных записей френдов и пабликов нам показывать. В этом они полагаются на машинное обучение — вручную это сделать нереально. Алгоритмы могут определять смысл слов, но слепы к иронии или цитатам, поэтому бывают ошибки.

Такие алгоритмы надо «обучать» — проверять всё ли они правильно делают. Для этого применяют методы сплит-тестов: одной группе людей показывают выдачу по новой версии алгоритма, другой — по старой. И потом сверяют результат по выбранным заранее метрикам.

Кроме исследуемых групп, которым показывают улучшенные версии продукта, должна быть ещё контрольная группа. Это группе намеренно показывают «некачественные» результаты — например, те записи, которые обычные пользователи никогда бы не увидели. Это тоже часть обучения алгоритмов.

Как показывает опыт исследователей, если человек попал в группу исследователей, то лучше его там оставить. Иначе он будет постоянно видеть разные версии продукта и больше нервничать.

И, если с соцсетями это ещё не так критично, то когда Китайский персональный рейтинг будет выведен на всё население, то в однопроцентной контрольной группе окажется 1,9 миллиона человек. Этот процент окажется без доступа к билетам, аренде или кредитам просто так — чтобы алгоритмы выдавали лучшие результаты для остальных 99% населения.

Петля положительной обратной связи — негативный эффект у алгоритмов машинного обучения. Сформулирован в книге «Оружие математического поражения» (в оригинале интересная игра слов «Weapon of Math Destruction»).

Пример такой петли: в Америке полицейские стали с помощью машинного обучение предсказывать неблагоприятные районы, куда направлять больше патрульных машин. Алгоритмы стали чаще указывать на «чёрные» кварталы, что привело к тому, что там стали задерживать больше жителей. Что подкрепляло алгоритм и он старался посылать туда ещё больше машин. Получилась затягивающаяся петля обратной связи.

Где почитать и послушать книгу

Что думаете о современном потреблении информации?

Если вы дочитали до сюда, то, видимо, было интересно :-) Расскажите, что нового узнали и как это можно применить в жизни — в комментарии или где будет удобно.

Или посоветуйте что ещё можно интересного почитать, посмотреть, послушать по теме потребления информации.

Если знаете, кому эта тема может быть интересна — поделитесь с ними ссылкой.

Share
Send
 7   1 mon   информация   книги
Popular