OpenAI представила нову модель штучного інтелекту GPT-4o
Компанія OpenAI представила мовну модель штучного інтелекту GPT-4o. Розробники запевнили, що модель працюватиме так само, як GPT-4, але набагато швидше, повідомляє XDA, пише Мінфін.
GPT-4o також отримав нову технологію голосового режиму для безпосереднього спілкування з ChatGPT.
Буква "o" у назві – це скорочення від "omni" ("всебічний"). Нова версія моделі працює з мовою, текстом і відео. GPT-4o в середньому реагує на аудіо за 320 мілісекунд, що можна порівняти з часом реакції людини в розмові, зазначили в компанії.
В OpenAI завжди прагнули зробити голосову розмову з ChatGPT схожою на розмову з реальною людиною, але затримка з відповіддю все псувала.
У компанії провели демонстрацію розмови з GPT-4o за допомогою голосу. GPT-4o не тільки відповів майже миттєво, коли доповідач закінчив розмову. ШІ також відповів перетворенням тексту на мову з повноцінним відчуттям спілкування в реальному часі.
Крім того, в OpenAI показали, як GPT-4o можна використовувати як голосового перекладача між двома людьми, які розмовляють різними мовами.
Під час іншої демонстрації, мовна модель GPT-4o розповіла казку на ніч із підказкою "робота і любов". У середині розповіді втрутився Марк з OpenAI і попросив GPT-4o відкоригувати емоції. GPT-4o змінювала голос залежно від запитань, від драматичного виступу до холодного, роботизованого тону. Зрештою GPT-4o навіть заспівала.
GPT-4o також використовували для перевірки коду. Модель змогла не тільки пояснити, що робить код, а й сказати, що станеться, якщо змінити деякі його частини.
Зазвичай коли OpenAI анонсує нову версію своєї моделі ChatGPT, вона обмежена платним доступом. Однак компанія вирішила дозволити кожному користуватися цією новою технологією, хоча платні користувачі матимуть набагато більше можливостей.
Нова технологія буде розгорнута в найближчі кілька тижнів. Незабаром буде розгорнуто додаток ChatGPT для настільних ПК з голосовими і візуальними можливостями.