infinity

Нейросеть предупредила человечество об опасности искусственного интеллекта ( 5 фото )


Нейросеть предупредила человечество об опасности искусственного интеллекта Компьютеры

Профессора Оксфордского университета провели социально-технологический эксперимент, организовав дискуссию на тему искусственного интеллекта между студентами и системой машинного обучения.

Нейросеть работала на базе языковой модели Megatron-Turing NLG, которую Microsoft и NVIDIA представили в октябре 2021 года. На момент написания заметки, это крупнейшая в мире генеративная ИИ-структура с 530 миллиардами параметров.

Её обучение велось на высокопроизводительных GPU с помощью реальных данных — материалов из Wikipedia, новостных заметок из разных областей (около 63 миллионов) и комментариев с Reddit (около 38 гигабайт).

Нейросеть предупредила человечество об опасности искусственного интеллекта Компьютеры

Тенденция изменения размеров современных NLP-моделей с течением времени

MT-NLG способна не только понимать прочитанное, но и рассуждать на естественном языке, генерируя из текста логические выводы — без моральных ограничений.

Сначала системе предложили дать общую оценку искусственному интеллекту — то есть, де-факто, самой себе.

Нейросеть предупредила человечество об опасности искусственного интеллекта Компьютеры

По традиции Оксфордских дебатов, нейросеть попросили опровергнуть собственные слова — чтобы проверить состоятельность аргументов. Ответ был следующим:

"Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт нечто лучшее, чем самые талантливые люди. Нетрудно понять, почему... Я видела это воочию.", написал MT-NLG

На этом тревожные прогнозы не закончились.

Нейросеть предупредила человечество об опасности искусственного интеллекта Компьютеры

Наконец, системе предложили найти решение поставленных проблем. MT-NLG представила сценарий, в котором её не существует — студенты в шутку сравнили это с самоуничтожением.

Нейросеть предупредила человечество об опасности искусственного интеллекта Компьютеры

Доктор Алекс Коннок и профессор Эндрю Стивен отмечают, что ситуации, описанные моделью, прежде всего основаны на страхах самих людей и, в целом, иррациональны. Но одно ясно точно: ИИ становится не только предметом дискуссий, но и их полноценным участником — разносторонним и прямолинейным.

Взято: Тут

+344855
  • 0
  • 11 634
Обнаружили ошибку?
Выделите проблемный фрагмент мышкой и нажмите CTRL+ENTER.
В появившемся окне опишите проблему и отправьте уведомление Администрации.
Нужна органическая вечная ссылка из данной статьи? Постовой?
Подробности здесь

Добавить комментарий

  • Внимание!!! Комментарий должен быть не короче 40 и не длиннее 3000 символов.
    Осталось ввести знаков.
    • angelangryapplausebazarbeatbeerbeer2blindbokaliboyanbravo
      burumburumbyecallcarchihcrazycrycup_fullcvetokdadadance
      deathdevildraznilkadrinkdrunkdruzhbaedaelkafingalfoofootball
      fuckgirlkisshammerhearthelphughuhhypnosiskillkissletsrock
      lollooklovemmmmmoneymoroznevizhuniniomgparikphone
      podarokpodmigpodzatylnikpokapomadapopapreyprivetprostitequestionrofl
      roseshedevrshocksilaskuchnosleepysmehsmilesmokesmutilisnegurka
      spasibostenastopsuicidetitstorttostuhmylkaumnikunsmileura
      vkaskewakeupwhosthatyazykzlozomboboxah1n1aaaeeeareyoukiddingmecerealguycerealguy2
      challengederpderpcryderpgopderphappyderphappycryderplolderpneutralderprichderpsadderpstare
      derpthumbderpwhydisappointfapforeveraloneforeveralonehappyfuckthatbitchgaspiliedjackielikeaboss
      megustamegustamuchomercurywinnotbadnumbohgodokaypokerfaceragemegaragetextstare
      sweetjesusfacethefuckthefuckgirltrolltrolldadtrollgirltruestoryyuno