Поддержать команду Зеркала
Беларусы на войне
  1. Люди танцевали, не подозревая о нависшей над ними смерти. Одна из крупнейших инженерных катастроф убила 114 человек — вот ее история
  2. У Николая Лукашенко увеличился один из бюджетных источников дохода — его отец подписал указ
  3. Поймали таинственного зверя, пугавшего жителей Сеницы и Прилук
  4. Силовики расширили географию поиска участников протестов 2020 года. Их интересуют выходившие на марши в еще одном городе
  5. Евросоюз согласовал 18-й пакет санкций против России и Беларуси
  6. Мобильные операторы вводят изменения. Клиентам дали несколько дней, чтобы перейти на новые услуги
  7. Санкции ЕС против Беларуси: Эмбарго на импорт вооружений, четыре банка и восемь предприятий ВПК — «в бан»
  8. Из России приходят новости, которые способны ударить по валютному рынку Беларуси. Но это далеко не все возможные проблемы для Минска
  9. Последние инициативы Трампа заставили Кремль вспомнить старые нарративы. Но озвучивают их уже с новой целью — рассказываем подробности
  10. На БелАЭС сработала сигнализация — второй энергоблок отключили от сети
  11. «Однозначно установить запрет на использование». Нацбанк объявил, что хочет ввести очередное ограничение — какое на этот раз
  12. «Приходят десятки сообщений, что ужесточается контроль на границе». Узнали, как сейчас силовики ищут участников протестов 2020 года
  13. «А мне воняет не гарью, а кошачьим туалетом». Беларусы возмущаются, что пакеты в магазинах неприятно пахнут. Объясняем почему


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.