new Chatgpt: умнее, но … более серебряный?
Openai недавно запустил две новые версии Catgpt, O3 и O4-Mini, рекламируемых как обладающие превосходными способностями логического мышления. Тем не менее, результаты внутренних испытаний удивительны: обе эти модели имеют «галлюцинации», то есть изготовление информации — с тревожной частотой, даже выше, чем ее предшественники. Это создает большие проблемы для OpenAI в обеспечении точности и надежности продуктов AI -генерации. Эта статья будет проанализировать больше об этой проблеме и ее потенциальных последствиях.
Запуск O3 и O4-Mini знаменует собой важный шаг в технологии обработки естественного языка (NLP). OpenAI ожидает, что эти две модели будут лучше выполнять сложные задачи, которые нуждаются в логических рассуждениях. Однако реальность показывает, что, помимо значительных улучшений в способности мыслить, «сфабрикованная» тенденция O3 и O4-Mini значительно увеличилась. Это вызывает много проблем по поводу применения этих моделей на практике, особенно в областях, которые требуют высокой точности, таких как пресса, здоровье или право.
В настоящее время OpenAI не опубликовал подробную информацию о причине этого явления. Тем не менее, многие эксперты считают, что слишком много внимания к улучшению логики могло случайно снизить способность проверять информацию модели. Обучение модели на огромном количестве данных, которые могут содержать много ложной информации, также является фактором, который необходимо учитывать.
Этот инцидент поднимает большой вопрос о направлении развития технологии ИИ в целом. Как сбалансировать улучшение логического мышления и обеспечить точность информации? Может ли Openai преодолеть эту проблему и принести более надежные чаттопы в будущем? Это проблемы, которые необходимо решить OpenAI, чтобы сохранить лидирующую позицию в области ИИ. Разработка технологии ИИ должна быть связана с ответственностью за обеспечение прозрачности и надежности, избегая нежелательных последствий.
#Openai #chatgpt
: Openai сложно Catgpt O3, O4-Mini «Fabinate Information» больше
OpenAI только что запустил две новые модели O3 и O4-Miniспециально разработанный для выполнения задач, которые требуют логического мышления. Однако, согласно внутренним тестам, эти две модели имеют тенденцию создавать ложную информацию (также известную как «галлюцинации») с более высокой частотой, чем предыдущие модели, такие как GPT-4O.
Феномен иллюзии по -прежнему является одной из самых сложных проблем в индустрии ИИ. Новые модели часто повышают их точность, но O3 и O4-Mini идут против этой тенденции. Согласно техническим отчетам Openai, эти модели «создают больше заявлений», также должны предоставлять больше информации должным образом, но также и больше ложных ответов.
Результаты теста показали, что O3 был галлюцинирован в 33%вопросов Personqa данных, установленных в два раза больше, чем O1 (16%) и O3-Mini (14,8%). O4-Mini еще выше, с показателем до 48%. Это шаг назад по сравнению с ожиданием точности моделей ИИ нового поколения.

Не только Openai записывает эту проблему. Согласно The Cusion, независимой исследовательской лаборатории ИИ, O3 имеет тенденцию «изготовить» задачу выполнения задачи. В одном случае модель сказала, что она запустила код на MacBook Pro 2021 и скопировала результаты в ответ — то, что было абсолютно невозможно сделать в действительности.
Нил Чоудхури, исследователь в Cugure и бывшем сотруднике Openai, сказал, что алгоритм обучения подкреплению, используемый для модельной линии O, может случайно усилить ошибки, которые будут слегка снижены в результате традиционного учебного процесса. На той же точке зрения соучредителем кода является Сара Шветтманн, заявив, что высокая галлюцинальная скорость делает O3 менее эффективным, чем реальный потенциал.
Некоторые компании все еще тестируют O3 в реальной среде. Киан Катанфош, лектор в Стэнфорде и генеральный директор Workera, сказал, что его группа оценила O3 выше, чем конкуренты при использовании в процессе программирования. Тем не менее, они также обнаружили, что эта модель часто создает разбитые веб -ссылки.
Хотя иногда «творческие» ответы от ИИ могут привести к новым идеям, но в таких областях, как законные или финансовые, где это требует абсолютной точности, явление галлюцинаций является большим барьером. Многообещающим подходом является интеграция функции веб -поиска в модель искусственного интеллекта. Например, GPT-4O имеет поиск, достигающий 90% точности на SimpleQA, согласно данным OpenAI.
Представитель OpenAI, Нико Феликс, сказал, что повышение точности и галлюцинаций является постоянным приоритетом исследования компании. Однако, если расширение модели мышления продолжает ухудшать эту проблему, индустрия ИИ столкнется с более неотложной проблемой, чем когда -либо.
В контексте традиционных методов обучения начинают показывать, что эффективность снижается, многие технологические компании обращаются к моделям мышления. Несмотря на сохранение ресурсов и эффективно во многих задачах, ясно, что есть еще много барьеров, которые нужно преодолеть, чтобы они были действительно надежными.
OpenAI только что запустил две новые модели O3 и O4-Miniспециально разработанный для выполнения задач, которые требуют логического мышления. Однако, согласно внутренним тестам, эти две модели имеют тенденцию создавать ложную информацию (также известную как «галлюцинации») с более высокой частотой, чем предыдущие модели, такие как GPT-4O.
Феномен иллюзии по -прежнему является одной из самых сложных проблем в индустрии ИИ. Новые модели часто повышают их точность, но O3 и O4-Mini идут против этой тенденции. Согласно техническим отчетам Openai, эти модели «создают больше заявлений», также должны предоставлять больше информации должным образом, но также и больше ложных ответов.
Результаты теста показали, что O3 был галлюцинирован в 33%вопросов Personqa данных, установленных в два раза больше, чем O1 (16%) и O3-Mini (14,8%). O4-Mini еще выше, с показателем до 48%. Это шаг назад по сравнению с ожиданием точности моделей ИИ нового поколения.

Не только Openai записывает эту проблему. Согласно The Cusion, независимой исследовательской лаборатории ИИ, O3 имеет тенденцию «изготовить» задачу выполнения задачи. В одном случае модель сказала, что она запустила код на MacBook Pro 2021 и скопировала результаты в ответ — то, что было абсолютно невозможно сделать в действительности.
Нил Чоудхури, исследователь в Cugure и бывшем сотруднике Openai, сказал, что алгоритм обучения подкреплению, используемый для модельной линии O, может случайно усилить ошибки, которые будут слегка снижены в результате традиционного учебного процесса. На той же точке зрения соучредителем кода является Сара Шветтманн, заявив, что высокая галлюцинальная скорость делает O3 менее эффективным, чем реальный потенциал.
Некоторые компании все еще тестируют O3 в реальной среде. Киан Катанфош, лектор в Стэнфорде и генеральный директор Workera, сказал, что его группа оценила O3 выше, чем конкуренты при использовании в процессе программирования. Тем не менее, они также обнаружили, что эта модель часто создает разбитые веб -ссылки.
Хотя иногда «творческие» ответы от ИИ могут привести к новым идеям, но в таких областях, как законные или финансовые, где это требует абсолютной точности, явление галлюцинаций является большим барьером. Многообещающим подходом является интеграция функции веб -поиска в модель искусственного интеллекта. Например, GPT-4O имеет поиск, достигающий 90% точности на SimpleQA, согласно данным OpenAI.
Представитель OpenAI, Нико Феликс, сказал, что повышение точности и галлюцинаций является постоянным приоритетом исследования компании. Однако, если расширение модели мышления продолжает ухудшать эту проблему, индустрия ИИ столкнется с более неотложной проблемой, чем когда -либо.
В контексте традиционных методов обучения начинают показывать, что эффективность снижается, многие технологические компании обращаются к моделям мышления. Несмотря на сохранение ресурсов и эффективно во многих задачах, ясно, что есть еще много барьеров, которые нужно преодолеть, чтобы они были действительно надежными.
<
h1>Заключение Openai сложно CatGpt O3, O4-Mini «Изготовление информации» больше
OpenAI только что запустил две новые модели O3 и O4-Miniспециально разработанный для выполнения задач, которые требуют логического мышления. Однако, согласно внутренним тестам, эти две модели имеют тенденцию создавать ложную информацию (также известную как «галлюцинации») с более высокой частотой, чем предыдущие модели, такие как GPT-4O.
Феномен иллюзии по -прежнему является одной из самых сложных проблем в индустрии ИИ. Новые модели часто повышают их точность, но O3 и O4-Mini идут против этой тенденции. Согласно техническим отчетам Openai, эти модели «создают больше заявлений», также должны предоставлять больше информации должным образом, но также и больше ложных ответов.
Результаты теста показали, что O3 был галлюцинирован в 33%вопросов Personqa данных, установленных в два раза больше, чем O1 (16%) и O3-Mini (14,8%). O4-Mini еще выше, с показателем до 48%. Это шаг назад по сравнению с ожиданием точности моделей ИИ нового поколения.

Не только Openai записывает эту проблему. Согласно The Cusion, независимой исследовательской лаборатории ИИ, O3 имеет тенденцию «изготовить» задачу выполнения задачи. В одном случае модель сказала, что она запустила код на MacBook Pro 2021 и скопировала результаты в ответ — то, что было абсолютно невозможно сделать в действительности.
Нил Чоудхури, исследователь в Cugure и бывшем сотруднике Openai, сказал, что алгоритм обучения подкреплению, используемый для модельной линии O, может случайно усилить ошибки, которые будут слегка снижены в результате традиционного учебного процесса. На той же точке зрения соучредителем кода является Сара Шветтманн, заявив, что высокая галлюцинальная скорость делает O3 менее эффективным, чем реальный потенциал.
Некоторые компании все еще тестируют O3 в реальной среде. Киан Катанфош, лектор в Стэнфорде и генеральный директор Workera, сказал, что его группа оценила O3 выше, чем конкуренты при использовании в процессе программирования. Тем не менее, они также обнаружили, что эта модель часто создает разбитые веб -ссылки.
Хотя иногда «творческие» ответы от ИИ могут привести к новым идеям, но в таких областях, как законные или финансовые, где это требует абсолютной точности, явление галлюцинаций является большим барьером. Многообещающим подходом является интеграция функции веб -поиска в модель искусственного интеллекта. Например, GPT-4O имеет поиск, достигающий 90% точности на SimpleQA, согласно данным OpenAI.
Представитель OpenAI, Нико Феликс, сказал, что повышение точности и галлюцинаций является постоянным приоритетом исследования компании. Однако, если расширение модели мышления продолжает ухудшать эту проблему, индустрия ИИ столкнется с более неотложной проблемой, чем когда -либо.
В контексте традиционных методов обучения начинают показывать, что эффективность снижается, многие технологические компании обращаются к моделям мышления. Несмотря на сохранение ресурсов и эффективно во многих задачах, ясно, что есть еще много барьеров, которые нужно преодолеть, чтобы они были действительно надежными.
. Автор {позиция: абсолют; Граница: 2PX SOLI #990000; -Моз-грамотный радий: 50%; -М-грамотр-радий: 50%; Граница радий: 50%; Анимация: отскок 2s бесконечен; -Вебкит-анимация: отскок 2s бесконечен; -Моз-анимация: Бонк 2S Бесконечно; —Anime: Bounce 2s Infinite; Дисплей: встроенный блок; Заполнение: 3PX 3PX 3PX; Цвет: #fff; Фон: #990000; Размер шрифта: 20px; Высота линии: 1; -Моз-грамотный радий: 5px; -Вебкит-грамотный радий: 5px; -Мозо-бокс-тень: 0 1px 3px #999; -Webkit-box-shadow: 0 1px 3px #999; Текст -shadow: 0 -1px 1px #222; Пограничный подъем: 1PX SOLID #222; Позиция: относительно; Курсор: указатель; }
Post Chatgpt: умнее, но … более серебряный? Впервые появился на Queen Mobile.
Больше на 24 Gadget - Review Mobile Products
Подпишитесь, чтобы получать последние записи по электронной почте.