nicolas3699

Почему искусственный интеллект пока не будет вас убивать ( 3 фото )


Почему искусственный интеллект пока не будет вас убивать Роботы

Благодаря популярной культуре, искусственный интеллект для очень многих людей — это безжалостные роботы, которые «убьют всех человеков» при первой же возможности. Этот образ поддерживают и регулярные туманные, но угрожающие сообщения от руководителей ИТ-корпораций об опасности ИИ. Но есть и другое мнение.

Вероятно, искусственный интеллект еще долго не будет для нас угрозой.

Почему искусственный интеллект пока не будет вас убивать Роботы

Что такое искусственный интеллект

Журналист New York Times Кейд Метц, пишущий о технологиях, недавно выпустил книгу «Genius Makers», посвященную разработке систем искусственного интеллекта в таких компаниях, как Google, Facebook и другие. Он провел множество интервью со специалистами, проанализировал сотни документов и пришел к выводу: технология действительно очень многообещающая, но из-за большого количества недостатков она все еще работает намного хуже, чем человеческий мозг.

Сегодня искусственный интеллект — это набор концепций, который позволяет компьютерным системам очень примерно имитировать работу человеческого мозга. Одно из таких понятий — нейронная сеть. Это математическая система, способная анализировать данные и точно определять закономерности. Например, если взять множество фотографий кошек и загрузить их в нейросеть, то она может научиться определять изображения, на которых есть кошки. Первые такие сети были построены в 1950-х годах, но за десятилетия ученые так и не добились заметного прогресса.

Ситуация начала меняться в 2010 году. Тогда было устранено два препятствия для развития технологий ИИ — недостаток информации и недостаток вычислительной мощности компьютеров. Благодаря интернету, у исследователей появилось множество данных, а скорость процессоров развилась до достаточного уровня.

Каким отраслям действительно нужен искусственный интеллект

Многие сервисы без технологий ИИ, скорее всего, просто не появились бы. Это, например, голосовые ассистенты наподобие Siri, беспилотные автомобили, чат-боты, системы видеонаблюдения, складские роботы и множество онлайн-сервисов, которые работают с изображениями, текстами и другим медиаконтентом.

По мнению Метца, «искусственный интеллект» — просто не совсем корректное название. «Когда мы слышим этот термин, мы представляем себе компьютер, который может делать все, что могут люди. Это было не так в 1950-х годах, это неправда и сейчас».

Дублирование человеческого мышления, в частности его способности справляться с неопределенностью — до сих пор сложнейшая задача. В качестве примера: беспилотный автомобиль может распознать, что именно находится вокруг него, и часто он делает это лучше, чем люди. Но его по-прежнему опасно направлять «куда угодно» без контроля со стороны человека или давать ему полномочия самостоятельно реагировать на что-то неожиданное на дороге.

Почему искусственный интеллект пока не будет вас убивать Роботы

Действительно негативные последствия от ИИ

Проанализировав текущее развитие технологий, Метц озвучивает настоящие негативные последствия, которые можно ожидать от технологий ИИ.

Fake news будут генерировать не только люди, но и искусственный интеллект. В какой-то момент качество поддельной информации станет таким, что не будет точного способа сказать, что реально, а что — подделка.
Огромную опасность будет представлять любое оружие, которое будет управляться через интернет.

Самым страшным Метц называет тот факт, что многие компании-разработчики позиционируют нейросети, как некую утопию, которая способна идеально и без ошибок выполнять человеческую работу. На самом деле это не так. Как правило, нейронные сети учатся на огромных массивах информации из интернета — и эта информация создана людьми. А они не могут не транслировать определенную предвзятость, например, гендерную или расовую.

Китайская угроза

Руководители крупных технологических компаний регулярно выступают с тревожными заявлениями об искусственном интеллекте. Например, бывший CEO Google Эрик Шмидт недавно заявлял, что американские компании недостаточно серьезно относятся к теме ИИ, и поэтому есть риск отстать от Китая в уровне развития этих технологий. Возникает вопрос — насколько это реально?

По словам Метца, развитие технологий ИИ действительно можно отнести к вопросам национальной безопасности. Цель Шмидта и других руководителей компаний — побудить государство относиться к теме ИИ максимально серьезно. Но Метц предупреждает, что в деле конкуренции с Китаем нужно быть осторожнее. Лучшие технологические кадры часто приходят в США из-за рубежа, и в частности из Китая. Поэтому возможное закрытие границ с поднебесной может навредить США в долгосрочной перспективе.

Взято: Тут

+282958
  • 0
  • 13 038
Обнаружили ошибку?
Выделите проблемный фрагмент мышкой и нажмите CTRL+ENTER.
В появившемся окне опишите проблему и отправьте уведомление Администрации.
Нужна органическая вечная ссылка из данной статьи? Постовой?
Подробности здесь

Добавить комментарий

  • Внимание!!! Комментарий должен быть не короче 40 и не длиннее 3000 символов.
    Осталось ввести знаков.
    • angelangryapplausebazarbeatbeerbeer2blindbokaliboyanbravo
      burumburumbyecallcarchihcrazycrycup_fullcvetokdadadance
      deathdevildraznilkadrinkdrunkdruzhbaedaelkafingalfoofootball
      fuckgirlkisshammerhearthelphughuhhypnosiskillkissletsrock
      lollooklovemmmmmoneymoroznevizhuniniomgparikphone
      podarokpodmigpodzatylnikpokapomadapopapreyprivetprostitequestionrofl
      roseshedevrshocksilaskuchnosleepysmehsmilesmokesmutilisnegurka
      spasibostenastopsuicidetitstorttostuhmylkaumnikunsmileura
      vkaskewakeupwhosthatyazykzlozomboboxah1n1aaaeeeareyoukiddingmecerealguycerealguy2
      challengederpderpcryderpgopderphappyderphappycryderplolderpneutralderprichderpsadderpstare
      derpthumbderpwhydisappointfapforeveraloneforeveralonehappyfuckthatbitchgaspiliedjackielikeaboss
      megustamegustamuchomercurywinnotbadnumbohgodokaypokerfaceragemegaragetextstare
      sweetjesusfacethefuckthefuckgirltrolltrolldadtrollgirltruestoryyuno