Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Лукашенко привлек контрразведку, чтобы понять реальную ситуацию в армии. Констатировал, что там врут
  2. В «Белоруснефти» заявили, что бензин у нас дешевле, чем в Польше. Посчитали, кто на зарплату может купить его больше — беларус или поляк
  3. «Белая Русь» опубликовала в TikTok слова Чемодановой о «Беларуси будущего» — но не закрыла комментарии. Пользователи жестко ответили
  4. «Нужно выжить». Беларусский шоумен, попавший в образовательный скандал в ОАЭ, обратился к подписчикам
  5. США могут предложить Минску нефтяную сделку в обмен на перезапуск отношений — СМИ
  6. Вынесли приговор одному из руководителей ювелирного бренда Belaruskicry, объявленного «экстремистским формированием»
  7. Мобильные операторы вводят изменения для клиентов
  8. «Это то, что уже влияет на статистику цен по реальным сделкам». Стало известно, сколько квартир в Минске купили россияне
  9. Лукашенко до сих пор не может забыть и простить американского миллиардера, которого видел 30 лет назад. Вот что между ними произошло
  10. «Он не разбился». Чемпион Беларуси по мотокроссу умер в 17 лет
  11. 21-летний внук Лукашенко построит цех за госкредит на льготных условиях


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».