Поддержать команду Зеркала
Беларусы на войне
  1. Мобильные операторы вводят изменения. Клиентам дали несколько дней, чтобы перейти на новые услуги
  2. На БелАЭС сработала сигнализация — второй энергоблок отключили от сети
  3. «Однозначно установить запрет на использование». Нацбанк объявил, что хочет ввести очередное ограничение — какое на этот раз
  4. «Преступная война Путина приближается к нашим границам». Российские беспилотники атаковали польский завод
  5. Светлана Тихановская получает от правительства Литвы 35 тысяч евро в месяц? Что ответили в Офисе и МИД
  6. Последние инициативы Трампа заставили Кремль вспомнить старые нарративы. Но озвучивают их уже с новой целью — рассказываем подробности
  7. «Приходят десятки сообщений, что ужесточается контроль на границе». Узнали, как сейчас силовики ищут участников протестов 2020 года
  8. У Николая Лукашенко увеличился один из бюджетных источников дохода — его отец подписал указ
  9. «А мне воняет не гарью, а кошачьим туалетом». Беларусы возмущаются, что пакеты в магазинах неприятно пахнут. Объясняем почему
  10. Поймали таинственного зверя, пугавшего жителей Сеницы и Прилук
  11. «Не держу вокруг себя трусов». В 18 лет учащийся гомельского колледжа проснулся под дулом пистолета и попал в колонию — поговорили с ним
  12. Беларус вернулся на родину из Литвы — его судили и дали два года колонии с крупным штрафом


Институт инженеров электротехники и электроники (IEEE) провел тест Тьюринга, чтобы оценить, насколько современные модели искусственного интеллекта могут имитировать человеческое общение, пишет LiveScience.

Изображение используется в качестве иллюстрации. Фото: pixabay.com
Изображение используется в качестве иллюстрации. Фото: pixabay.com

Сообщается, что в ходе эксперимента 500 участников вели диалог с четырьмя агентами: человеком и тремя различными ИИ-моделями: программой эпохи 1960-х ELIZA, GPT-3.5 и GPT-4. Люди должны были за пять минут определить, общаются они с человеком или ИИ.

Исследователи заявили, что GPT-4 успешно прошел тест Тьюринга. Участники ошибочно принимали GPT-4 за человека в 54% случаев. «Это достижение подчеркивает значительный прогресс в развитии ИИ, но также вызывает опасения относительно социальных и экономических последствий широкого использования таких технологий», — отметили ученые.

Система ELIZA была принята за человека в 22% случаев, GPT-3.5 в 50%, а человек в 67%.

Ученые подчеркивают, что тест Тьюринга имеет свои ограничения и критикуется за слишком упрощенный подход к оценке интеллекта. Исследователи добавили, что стилистические и эмоциональные факторы играют большую роль в прохождении теста, чем традиционные представления об интеллекте.

Тест Тьюринга, предложенный Аланом Тьюрингом в 1950 году, оценивает способность машины демонстрировать интеллект, неотличимый от человеческого.