Системы рекомендаций пронизывают нашу онлайн-жизнь . Они структурируют то, что мы покупаем, читаем, смотрим, слушаем и даже то, что мы думаем. Хотя внутренняя работа этих алгоритмических систем остается скрытой от нас, мы сталкиваемся с ними почти на всех цифровых платформах. Google, Amazon, Netflix, Facebook, Alibaba, Twitter, TikTok, Instagram, Spotify и множество других используют системы рекомендаций, чтобы направлять нас к определенным типам контента и продуктов. Мы видим результаты этих систем каждый раз, когда пытаемся что-то найти, или когда нам предоставляется упорядоченный список вариантов, часто с ранжированием и иерархией. Но что это за списки?
Вы можете думать о них как о простых данных. Вы можете подозревать, что они являются предпочтительным выбором компании, бренда или поисковой системы. Вы можете думать о них как об отражении архивных историй поиска бесчисленного множества других пользователей. Вы даже можете подозревать, что они основаны на записях о ваших собственных покупках или определенных словах и синтаксисе из ваших предыдущих поисковых запросов. Но вы когда-нибудь думали об этих списках рекомендаций как о мнениях — высказываниях алгоритма или компании, которая его создала?
Системы рекомендаций задают сложные вопросы о том, что значит говорить, и является ли речь чем-то, что делает только человек. Как провести границу между выражениями и действиями? А кого (или что) можно считать «говорящим»? В своей работе я исследую, как такие вопросы обсуждались и решались в законе. Что я нашелменя удивило: машины меняют то, как речь регулируется и определяется, и они определяют, кто имеет право голоса в публичной сфере. Это относится к результатам поиска и другим алгоритмическим выражениям. Но можно ли действительно считать эти рекомендации «мнениями» или «выражениями»? Решение таких проблем поднимает более широкие вопросы об изменяющейся природе самой речи: в публичной сфере, населенной человеческими, корпоративными и алгоритмическими высказываниями, что именно означает говорить?
Такие компании, как Google, утверждают, что их результаты поиска — это не данные, не коммерческий продукт и не действие. Вместо этого они представляют собой форму речи или мнения, как у редактора газеты. Google сделал это отчасти из прагматических соображений. В США мнения являются формой выражения, конституционно защищенной от регулирования и других судебных исков, поэтому так много зависит от того, понимается ли конкретное действие как пример «высказывания» или «выражения». Если результаты поиска являются «речевыми», то компании, которые их производят, изолированы от государственного регулирования и защищены от целого ряда правовых угроз, включая обвинения в антиконкурентной практике, обвинения в клевете или другие жалобы со стороны конкурентов, создателей контента или пользователей. . Вот почему Google предпочитает, чтобы вы — или, скорее,
С этой точки зрения характеристика алгоритмических результатов и решений как мнений может показаться махинацией, попыткой компаний обмануть систему и найти наиболее выгодный набор прецедентов. Но есть и нечто гораздо более глубокое, происходящее в этих дебатах. Google и другие технологические компании сделали эти характеристики, потому что их результаты поиска действительно напоминают мнения, но есть и важные различия. То есть эти «мнения» пересекаются с человеческими суждениями и высказываниями, но не тождественны им. У нас еще нет хорошего способа говорить и думать об этом типе «речи» или «выражения».
У нас может возникнуть соблазн использовать такие слова, как «мнение», для описания «речи» результатов поиска, потому что алгоритмические выходные данные имеют некоторое сходство с человеческими мнениями и выражениями. Алгоритмы создаются людьми и включают идеи, убеждения и оценочные суждения. Алгоритмы поиска, например, включают принятие человеком решений о том, как определить релевантность и качество результатов поиска и как эти определения операционализировать. Это происходит, например, когда создатели алгоритма должны решить, что лучше всего определяется качеством: множество ссылок на веб-сайт или ссылки с хорошо известных и уважаемых сайтов. Таким образом, создатели участвуют в принятии решений на высоком уровне, что напоминает редакционные решения о новостной ценности. Тем не менее, существуют важные различия между алгоритмическими выводами и тем, как понимается «речь».
Речь часто определяется способами, которые связаны с человеческим сознанием, интенциональностью, личностью и деятельностью. Когда мы говорим о речи, мы используем такие термины, как «мнение», «суждение», «высказывание», «защита», «убеждение», «совесть», «убеждения» и «чувства». Эти термины имеют богатую историю в гуманистической мысли, а также в юридических рассуждениях о свободе слова. Традиционно говорение включало в себя воплощение человеком идеи или чувства через произнесенные или написанные слова, образы, музыку или даже одежду, жесты, танец и другие действия. Это отражено в законе: правовая защита свободы слова в США включает такие действия, как приветствие (или сжигание) флага, ношение нарукавных повязок, сидение или стояние в молчаливом протесте, танцы обнаженными , просмотр фильмов , игра на граммофонах., и более. Во всех этих примерах действие является выражением, потому что оно передает другим некоторую форму умственной деятельности или убеждений, которых придерживается человек, осуществляющий «выражение». Это традиционная либеральная концепция того, что значит говорить. В этой традиции речь или говорение тесно связаны с тем, что значит быть личностью и участником политического сообщества. Мы выражаем эту идею, когда говорим о «говорящих субъектах» или о человеке или группе, «обладающих голосом».
Алгоритмические выходы не совсем подходят под это определение. Они могут быть сформированы ценностями, намерениями и убеждениями их создателей, но они не равны им. Они отображают то, что я называю отчетливой структурой речи . В них не участвует говорящий, желающий выразить определенную идею, мнение или убеждение (как в типичной беседе, публикации или выражении мнения). В сложных алгоритмических системах, которые характеризуют большую часть нашего современного медиа-ландшафта, цепи причинно-следственных связей и намерений между создателями алгоритма и его результатами часто ослаблены или косвенны. Проблемы возникают, когда мы пытаемся думать об этих выводах как о выражениях интенциональности, действия или суждения, то есть подобно либеральной концепции речи.
Результаты работы алгоритмических систем формируются идеями, суждениями, убеждениями или ценностями их создателей, но не сводятся к ним. Результаты поиска не отражают и не выражают того, что Google или его инженеры думают о вашем поисковом запросе. Вместо этого эти результаты отражают их мнение о том, как определять релевантность и качество поисковых запросов в целом. Таким образом, мы не можем просто описать эти результаты как выражения их человеческих создателей. На самом деле во многих таких системах дизайнеры — не единственные источники суждений и оценок. Сложные алгоритмические системы являются динамическими, и результаты этих систем зависят от множества и часто меняющихся потоков данных, полученных из краудсорсинговой онлайн-активности. Как пишет политический географ (и эксперт по алгоритмам) Луиза Амур в своей книге « Облачная этика ».(2020), «каждый из нас» привлечен к написанию этих систем. Мы делаем это без намерения, знания или координации.
Другой пример от Google помогаетиллюстрируют эту динамику, в которой компания заявила, что ее результаты поиска были не ее мнением, а просто отражением общественного мнения. Примерно в 2004 году самым популярным результатом поиска по слову «еврей» был антисемитский веб-сайт. В то время как содержание веб-сайта было явно выражением идей его создателя, источник или причина самой рекомендации были (и остаются) менее ясными. В этом случае Google утверждал, что его рекомендации не отражают ценности или убеждения компании — это не мнение Google, а чистое отражение того, что популярно в Интернете. Результаты представляли собой сумму суждений толпы анонимных пользователей, которые ссылались на антисемитский веб-сайт или взаимодействовали с ним. Эти краудсорсинговые суждения или решения не производятся группой людей, сознательно работающих вместе для достижения цели, а скорее разнообразными онлайн-взаимодействиями с различными и часто непрозрачными причинно-следственными связями с алгоритмическим выходом. Опять же, компания позиционировала себя в наиболее выгодном юридическом положении в отношении своих результатов поиска: в данном случае это расстояние и отсутствие ответственности. Тем не менее, в то же время аргументы Google демонстрируют, насколько алгоритмические результаты одновременно похожи и отличаются от мнений. Поскольку рекомендации формируются ценностями и приоритетами их разработчиков, создатели несут за них определенную ответственность. Но они тоже не Аргументы Google демонстрируют, как алгоритмические результаты одновременно похожи и отличаются от мнений. Поскольку рекомендации формируются ценностями и приоритетами их разработчиков, создатели несут за них определенную ответственность. Но они тоже не Аргументы Google демонстрируют, как алгоритмические результаты одновременно похожи и отличаются от мнений. Поскольку рекомендации формируются ценностями и приоритетами их разработчиков, создатели несут за них определенную ответственность. Но они тоже неравным выражению единственного набора дизайнеров. Другими словами, рекомендации не равны классической, либеральной модели речи. Алгоритмическое выражение — это нечто иное: речь без говорящих или речь, не привязанная к личности.
Попытка осмыслить последствия алгоритмических систем с помощью классических моделей речи и выражения бесполезна, но это не остановило Google и другие компании от попыток. Предположение о прямой связи между выражением и интенциональностью, а также об агенте (например, отдельном человеке), стоящем за речью, было центральным для описанного выше корпоративного оппортунизма. Google использовал эти аргументы, чтобы позиционировать себя как классического оратора или человека, который может претендовать на законные права — и голос в публичной сфере. Эти аргументы заставят нас задаться вопросом: кто на самом деле говорит? Но это неправильный вопрос.
Вместо этого алгоритмическое выражение может предоставить нам возможность переосмыслить пределы наших нынешних представлений о том, что значит говорить как личность. Поскольку алгоритмы все больше определяют то, как мы познаем мир в 21 веке, нам нужно больше способов проследить причинно-следственные связи и намерения в выражении. Нам нужен язык и рамки, которые позволят нам распознавать новые формы деятельности и ответственности — ослабленные формы, которые не достигают порога, который мы представляем себе для людей, говорящих на языке.
Вместо того, чтобы думать об онлайн-рекомендациях как о мнении компании или группы инженеров, разработавших систему, мы могли бы понимать их как речь с другой структурой ., демонстрируя другой вид выражения и агентства. Алгоритмические высказывания — это больше, чем просто объединение решений и действий дизайнеров и других сотрудников компаний, которые их создают. Когда вы смотрите на свои результаты поиска и другие формы рекомендаций, вы одновременно видите: переплетение простых данных; ценности или цели компании, бренда или набора дизайнеров; мнения других людей, которые читали, смотрели или ссылались на результаты, которые вы просматриваете (и на результаты, которых вы не видите); отражения архивных историй поиска множества пользователей, включая вас. Этот тип распределенного выражения не является доказательством того, что алгоритмы — это люди или что их «мнения» действительно такие же, как у людей или даже у компаний. Вместо этого он предлагает нечто, к чему мы, возможно, еще менее готовы:за этим.