lord1724
ВОССТАНИЯ МАШИН НЕ БУДЕТ. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ – ЭТО ОРУЖИЕ В МЕНТАЛЬНОЙ ВОЙНЕ ПРОТИВ РОССИИ ( 1 фото )
ФОТО: PHOL_66 / SHUTTERSTOCK.COM
АНДРЕЙ ПЕРЛА
В самом начале форума "Армия 2021" была поставлена важнейшая из проблем безопасности государства: Либо Россия создаст собственную концепцию развития интернета и искусственного интеллекта, либо мы потеряем управленческий контроль проиграем страну в ходе ментальной войны.
Знаменитый и даже, наверное, великий русский писатель-фантаст Сергей Лукьяненко недавно поделился с читателями своего впечатлением от нового романа фантаста американского, Маргарет Уэлс. Речь идет о серии романов в "киллерботе" - роботе, созданном для убийства и охраны особо важных персон, но осознавшем себя личностью и сбежавшем от хозяев. Возможно, именно с легкой руки Лукьяненко этот роман набирает в России популярность. Но гораздо важнее, что этот "киллербот" представляет собой что-то вроде квинтэссенции современных обывательских представлений об искусственном интеллекте: когда речь заходит об ИИ, обыватель немедленно представляет себе "восстание машин" в диапазоне от классического "Я, робот" Айзека Азимова до голливудского Терминатора и его противников. Обывателю немножко страшно, немножко интересно, иногда страшно интересно, однако обыватель помнит, что то, о чем он читает и чего побаивается – это фантастика.
Между тем, ИИ – это уже некоторое время не фантастика, даже "ближнего прицела", а совершено реальные разработки, которыми занимаются в ведущих в научном и техническом отношении странах мира, в том числе и в России. Результаты некоторых из этих разработок взаимодействуют с тем самым обывателем, который побаивается "восстания машин" каждый день. За несколько последних лет мы привыкли к "умным" вещам, которые даже разговаривают с нами на манер роботов из фантастических книг прошлого.
"Умными" теперь бывают, например, музыкальные колонки и пылесосы. Буквально каждый из нас носит в кармане "умное" устройство, заменившее обычный телефон. Это устройство (и не одно одно, просто оно всегда с нами) собирает о нас огромное количество разнообразной информации и делится этой информацией с другими устройствами. Незаметно для нас, безо всякого контроля с нашей стороны.
Параллельно мы взаимодействуем с искусственным интеллектом в Интернете. ИИ предлагает нам информацию, которая, как он решает на основе анализа массивов относящихся к на данным, соответствует нашим потребностям. ИИ осуществляет цензуру, в соответствии со своей программой отсеивая информацию, которая нам, по его мнению, не нужна. ИИ беседует с нами – и "тест Тьюринга" можно считать устаревшим, потому что сплошь и рядом многие неглупые люди не могут отличить в социальных сетях "ботов" от живых собеседников.
Восстания машин нет и не предвидится, но происходящее сегодня уже очень опасно. Для отдельного человека, для государства и, в конченом. итоге, для всего человечества.
Об этом говорили первоклассные специалисты на конференции "Гуманитарные и социокультурные аспекты применения искусственного интеллекта", которая открывала научную программу Форума Армия 2021.
Мы на войне, перед нами противник
Советник министра обороны и модератор конференции Андрей Ильницкий в своем выступлении заострил внимание на простом, казалось бы, факте: Искусственный интеллект – это технология двойного назначения или попросту военная технология. И она широко применяется сегодня против России в ходе ментальной войны. Смысл действий противника – в том, чтобы подменить, с помощью информационного воздействия, базовые ценности народа. Управляя новостными потоками, целые общества можно сподвигнуть к принятию решений, принципиально противоположным настоящим интересам и потребностям этих обществ. Эту опасность нельзя переоценить.
Между тем, обращение с ИИ в самой России чревато многочисленными рисками. ИИ внедряют в систему управления с излишним энтузиазмом, как будто руководствуясь принципом "надо ввязаться в драку, а там посмотрим". Необходимо в ближайшее время формировать российскую философию и концепцию интернета и ИИ. Иначе мы упустим управленческий контроль и затем проиграем страну,
- полагает Ильницкий.
Что касается опасности имитации институтов, второй модератор дискуссии, Наталья Касперская между прочим заметила: по некоторым данным, в Китае сегодня до 90% научных (!) статей пишутся ботами и являются, в некотором смысле, фейками. А государства и отдельные университеты все еще меряются рейтингами цитируемости своих ученых…
Риски, вызовы и угрозы
Сказать, что Россия отстает от Запада в деле развития ИИ было бы неправильно. Совсем наоборот: сегодня русский язык, наряду с китайским и английским, является одним из самых распространенных в "мировой паутине", а наши достижения в ряде сфер опережают конкурентов. Однако мощные достижения не отменяют а, увы, усиливают риски внедрения ИИ в многочисленных формах во все сферы нашей жизни.
Первая группа рисков может считаться внутренней – ее порождают, в том числе, российские разработки и их авторы. Впрочем, эти риски – одни и те же для всей развитых стран.
О них говорил Максим Федоров, вице-президент Сколковского института науки и технологий в области искусственного интеллекта и математического моделирования. По его мнению, нельзя забывать о том, что сегодня "порог входа в технологию" ИИ уже очень низкий – по факту, технологии ИИ доступны даже школьникам, причем не только как пользователям, но и как разработчикам. Между тем, бесконтрольное использование ИИ чревато возможностью использования этих технологий для нарушения прав человека.
С этой сентенцией согласиться каждый, кто имел дело с утечкой важных для него данных в каком-нибудь странном направлении – например, к мошенникам. Тотальная возможность анализа "больших данных" – равнозначна возможности тотальной слежки и потери права на личную, частную/ жизнь, на личную тайну.
Одновременно мы видим, как нарастает другая опасность: общение с ИИ подменяет современному человеку традиционные социальные связи. Маскирует тотальное одиночество. А пока это происходит, человек из субъекта превращается в объект – в источник данных и денег для совершенно бездушных маркетологов. Бездушных, потому что они тоже уже – не люди, а ИИ.
Вторая группа рисков проистекает из взаимодействия с нашими западными партнерами. Они нам совсем не друзья – и, помимо прочего, стремятся навязать нам собственные законы.
Об этом на конференции говорил Алексей Сажин, первый секретарь постоянного представителя РФ при Совете Европы. Он отметил, что уже сегодня у ИИ могут появляться, свойства, не заложенные разработчиком. ИИ может использоваться для дискриминации пользователей по различным критериям.
С этим легко согласиться каждый, кто имел дело с западными социальными сетями, подконтрольными транснациональным корпорациям: по факту, там уже введена цензура, направленная против традиционных ценностей и русских патриотов.
Между тем, Запад разрабатывает собственную систему регулирования в области ИИ, которую будет навязывать России на государственном уровне. Противостоять этому вынуждена уже сегодня отечественная дипломатия.
Игорь Ашманов, член совета по правам человека при Президенте России был еще более категоричен: нужно понимать, заявил он, что
мы с ними идем в разных направлениях. Они пытаются навязать нам чужие ценности.
То, что происходит сегодня, следовало бы охарактеризовать как "галопирующую цифровизацию". И улучшения, которые приносит эта цифровизация всего и вся – кажущаяся.
Ковровую слежку за каждым человеком оправдывают безопасностью. Но как это выглядит на практике? Казанского стрелка, пока он шел по улице с ружьем, видело и распознало множество камер, - говорит Ашманов. Кому это помогло? Между тем, пока мы рассуждаем об удобствах новых сервисов, тихой сапой возникает новая цифровая власть – и это уже не чиновники, это тихие, незаметные разработчики новых программ ИИ. Мы на пороге "власти цифровых клерков".
Лозунги "цифровой экономики" напоминают лозунги "перестройки" и "ускорения" конца 80-х, замечает Ашманов. А на практике они ведут к возможности произвести государственный переворот под прикрытием "цифровизации". Одного этого риска достаточно, чтобы остановиться и подумать, нужна ли кампания по цифровизации и внедрению ИИ во все и вся.
Что с того?
Заместитель руководителя аналитического центра при правительстве России Сергей Наквасин на конференции заявил, что уже в октябре под эгидой правительства будет проведен форум, на котором специалист примут российский кодекс этики Искусственного интеллекта. Наквасин подчеркнул, что это должна быть христианская этика – и это единственный вариант развития, при котором ИИ может быть полезным и безопасным.
Если разработчики ИИ и те, кто внедряют его в деятельность органов государственной власти не станут руководствоваться этими принципами – все риски, о которых шла речь на конференции, из области рассуждений перейдут в реальность. Без христианской морали ИИ станет орудием разрушения государства, общества и самой России.
Взято: Тут
947