Nik_Mix
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ГОТОВ К МАССОВЫМ УБИЙСТВАМ: НАЗВАНЫ ТРИ СПОСОБА УНИЧТОЖИТЬ ЧЕЛОВЕЧЕСТВО ( 1 фото )
ФОТО: WILLYAM BRADBERRY/SHUTTERSTOCK.COM
ИГОРЬ ПШЕНИЧНИКОВ
Разговоры о разработках искусственного интеллекта (ИИ) и исходящей от него угрозы напоминают жаркие дискуссии в Европе перед началом Первой мировой войны: все говорили о её опасности, но никто её не предотвратил. Ввиду своей исключительной важности и неясности перспектив эта проблема стоит на повестке дня параллельно с другими важнейшими мировыми вопросами. Многие учёные склоняются к тому, что опасность ИИ превосходит его пользу.
Умный, но не очень
Опасен ли для человека и человечества искусственный интеллект (ИИ)? На этот вопрос определённо "да" отвечает группа из врачей и экспертов в области глобальной политики здравоохранения из разных стран, опубликовавших свой доклад в журнале Британской медицинской ассоциации BMJ Global Health. Оставаясь медиками и рассматривая вопрос с точки зрения здоровья людей, они неминуемо вышли далеко за пределы своего профессионального интереса и раскрыли множество возможностей, когда ИИ может злоупотреблять современным уровнем технологий во вред человеку.
Ученые описали три основных способа, с помощью которых неправильно используемый ИИ может нести угрозу для здоровья и жизни людей.
Во-первых, опасность заключается в усилении возможностей контроля и манипулирования людьми со стороны властей. Описывая угрозы "демократии, свободе и неприкосновенности частной жизни", авторы описали, как власти могут "автоматизировать сложные задачи массового наблюдения и слежки".
Способность ИИ быстро очищать, организовывать и анализировать массивы данных, состоящие из личных данных, включая изображения, собранные с помощью повсеместно расставленных камер наблюдения, может облегчить авторитарным или тоталитарным режимам приход к власти и удержание у власти,
– пишут авторы исследования.
Во-вторых, исходящая от ИИ угроза заключается в "совершенствовании и дегуманизации" оружия. ИИ может привести к "массовым убийствам за счёт расширенного использования смертоносных автономных систем вооружения" (lethal autonomous weapon systems – LAWS). Наибольшее практическое применение ИИ находит сейчас в военной области, где скорость принятия решений определяет победителя на поле боя. Есть много определений того, что представляет собой смертоносное автономное оружие. Авторы доклада, естественно, исходят из понятия, принятого в США и НАТО. Министерство обороны США определяет LAWS как "систему вооружения, которая после активации может выбирать цели и поражать их без дальнейшего вмешательства человека-оператора".
И, наконец, в-третьих, ученые выразили обеспокоенность по поводу потенциальной серьёзной экономической угрозы со стороны ИИ. Суть её в том, что человеческий труд будет превращаться "во всё более устаревший" способ производства, человек будет вытеснен из производственной сферы и таким образом лишён средств к существованию.
Прогнозы скорости и масштаба потери рабочих мест из-за автоматизации, управляемой ИИ, варьируются от десятков до сотен миллионов в течение ближайшего десятилетия,
– пишут авторы статьи в BMJ Global Health.
Существуют сценарии, в которых ИИ может представлять не просто угрозу для людей, но, возможно, даже экзистенциальную угрозу, преднамеренно или непреднамеренно, прямо или косвенно причиняя людям вред, атакуя или подчиняя людей, нарушая работу различных систем или расходуя ресурсы, от которых люди зависят,
– говорится в статье.
Эксперты сделали одну оговорку. Они заявили, что их самые страшные предупреждения относятся к высокоразвитой и всё ещё теоретической категории искусственного интеллекта: самосовершенствующемуся ИИ, который в научной среде именуется как AGI (Artificial General Intelligence). Как раз в данный момент учёные в разных странах устроили гонку по разработке AGI, который сможет самообучаться, эволюционировать за счёт модификации самого себя или создания себе подобных. Задача ставится такая: AGI должен изучать и модифицировать свой собственный код для выполнения широкого спектра задач, на которые сегодня способны только люди. В своём комментарии эксперты в области здравоохранения утверждают, что такой ИИ "теоретически мог бы научиться обходить любые ограничения в своём коде и начать разрабатывать свои собственные цели". Именно то, что самосовершенствующийся ИИ сможет разрабатывать свои собственные цели, и вызывает большое опасение.
Волнение в Силиконовой долине
Примечательно, что опасения авторов статьи в британском журнале разделяют многие их коллеги в США. Илон Маск, соучредитель Apple Стив Возняк и ещё более тысячи технологических лидеров из Силиконовой долины около месяца назад написали открытое письмо, в котором призвали своих коллег приостановить "опасную гонку" по разработке ИИ, который, как они опасаются, представляет "серьёзный риск для общества и человечества" и может иметь "катастрофические последствия". Они говорят о сингулярности ИИ – той, видимо, уже близкой ситуации, когда технологическое развитие станет в принципе неуправляемым и необратимым, что приведёт к радикальным изменениям характера человеческой цивилизации.
Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а связанные с ними риски будут управляемыми,
– говорится в открытом письме. В нём также подробно описаны потенциальные риски для общества и цивилизации со стороны "конкурентоспособных систем искусственного интеллекта" в виде экономических и политических потрясений и содержится призыв к исследователям "работать в контакте с политиками и регулирующими органами". Авторы письма попросили все лаборатории, занятые разработкой ИИ, "прекратить разработку своих продуктов как минимум на шесть месяцев, пока проводится дополнительная оценка рисков".
Последней каплей для авторов открытого письма стал необычайный рост популярности появившегося в ноябре прошлого года чат-бота с искусственным интеллектом ChatGPT. Это платформа, обученная работе с массивными текстовыми данными и генерирующая текст, похожий на человеческий, в ответ на соответствующий запрос. По данным компании-разработчика OpenAI, этот чат-бот может "работать в диалоговом режиме, отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы". В последние месяцы ChatGPT покорил мир, сдав экзамены по медицине и юриспруденции, на подготовку которых у людей уходит несколько месяцев.
А кто за?
Западная печать отмечает, что мы находимся "в разгаре гражданской войны из-за развития искусственного интеллекта", и "величайшие умы мира разделились во мнениях относительно того, уничтожит он человечество или возвысит его". Обращает на себя внимание то, что сторонниками безостановочных исследований в области ИИ и его внедрения во все области человеческой деятельности являются известные представители глобалистской элиты, в частности Билл Гейтс, генеральный директор Google Сундар Пичаи и футуролог-трансгуманист Рэй Курцвейл, который высказывается за ту самую техническую сингулярность – стремительный научно-технический прогресс, основанный на превосходящем человеческий ум ИИ и "киборгизации людей". В то время как тысяча ученых из Силиконовой долины бьют тревогу по поводу таких вещей, как ChatGPT, Гейтс и компания приветствуют внедрение этого чат-бота в жизнь людей как "самую важную" инновацию нашего времени. Они заявляют, что "он может решить проблему изменения климата, вылечить рак и повысить производительность", решить другие проблемы человечества.
Скажи, кто твой друг, и я скажу, кто ты. Эта античная мудрость актуальна во все времена. Если Гейтс, этот сторонник сокращения численности человечества до "золотого миллиарда", которого обвиняют в организации "пандемии" коронавируса и мировой кампании по принуждению людей к вакцинации экспериментальными препаратами с опасными побочными эффектами, ратует за ИИ, значит, надо насторожиться. Тем более что, как пишет британская Daily Mail, "искусственный интеллект больше не будет нуждаться в людях и слушать их, что позволит ему красть ядерные коды, создавать пандемии и разжигать мировые войны". Не значит ли это, что реальные поджигатели войны или организаторы очередной пандемии, которая приведёт к гибели миллионов людей и свяжет остальных выживших драконовскими мерами контроля, переведут стрелки с себя на искусственный интеллект? Отличный способ избежать ответственности.
Что с того?
Критики безоглядного развития искусственного интеллекта полагают, что действующие на основе ИИ "модели в том виде, в каком они существуют сегодня, уже являются достаточной революцией, чтобы обеспечить десятилетний монументальный рост даже без дальнейшего технологического прогресса", и они "уже невероятно разрушительны".
Утверждать, что нам нужно больше технологических достижений прямо сейчас, безответственно и может привести к разрушительным последствиям для экономики и качества жизни,
– полагают ответственные эксперты, чьё мнение приводит Daily Mail. Пожалуй, разумно.
Взято: Тут
564