Поддержать команду Зеркала
Беларусы на войне
  1. «Не думаю, что что-то страшное». Попытались устроиться в госорганизации с подписью на последних выборах не за Лукашенко — что вышло
  2. Путин отклонил предложение США и Украины о 30-дневном прекращении огня — эксперты о ситуации на войне
  3. «Беларусов действительно много». Поговорили с мэром Гданьска о наших земляках в городе, их бизнесе, творчестве и дискриминации
  4. Этот триллер от Hulu переворачивает представление о сериалах про постапокалипсис. Объясняем, стоит ли смотреть (да)
  5. Битва за частный сектор: минчане отказываются покидать дома ради нового парка
  6. Что стало с «крышей» Бондаревой? Артем Шрайбман порассуждал, почему известная активистка оказалась за решеткой
  7. Почему Лукашенко больше не отпускает политзаключенных? И зачем КГБ устроил облавы на риелторов? Спросили у политического аналитика
  8. Какой будет погода на следующей неделе? «Лето» закончится, придет похолодание
  9. Госсекретарь США заявил, что Трамп готов бросить попытки помирить Украину и Россию и «двигаться дальше» — при каком условии
  10. «Пути молодых мужчин и женщин расходятся»? Откуда растут ноги у тренда, о котором эксперты давно бьют тревогу (но лучше не становится)
  11. Путин объявил «пасхальное перемирие» на фронте
  12. В МВД Польши ответили, при каких условиях возможно открытие пунктов пропуска
  13. Правозащитники: В Дзержинске проводят задержания и обыски, повод — послевыборные протесты


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.