Нью-Йоркський стартап Hume AI колишніх дослідників Google представив перший у світі голосовий ШІ з емоційним інтелектом (EQ). Навесні компанія залучила $50 млн інвестицій та випустила нещодавно оновлену версію – Empathic Voice Interface 2 (EVI 2).
Емпатична велика мовна модель (eLLM) працює на базі Claude 3 Haiku від Anthropic. Її навчали не тільки на текстах, відео та аудіо, а й на даних 10-річних досліджень у галузі EQ.
🤔 Як це працює
У демо-версії Hume AI є опція Start Call. Натиснувши на цю кнопку, можна вибрати одного з шести ШІ-асистентів, поговорити з ним або з нею на будь-яку тему й отримати зворотний зв’язок про свій настрій. Сервіс безкоштовний.
У кожного віртуального співрозмовника свій характер, темперамент і манера мови. Уся розмова одразу перетворюється на текст. Поки що сервіс підтримує тільки англійську мову.
Модель вміє розпізнавати 48 основних емоцій за фото, відео і тональністю голосу.
👍 Користь
Бесіда з ботом від Hume AI дуже схожа на спілкування з живою людиною. ШІ перестає говорити, коли його переривають, і уважно слухає, дотримуючись природних пауз у розмові. А головне, бот реагує з емпатією: він уловлює зміни в тоні, ритмі, тембрі голосу і підлаштовується під контекст діалогу.
У результаті, співрозмовник отримує зворотний зв’язок із зазначенням трьох основних емоцій, наприклад, радість, скепсис і почуття провини.
Застосування:
🔴 емпатичні ШІ-асистенти та домашні роботи-помічники;
🔴 поліпшення якості кол-центрів;
🔴 модерація та аналітика обговорень у соцмережах і переговорів;
🔴 маркетинг і UX-дослідження;
🔴 геймінг і технології VR та AR;
🔴 охорона здоров’я – скринінг ментального здоров’я і навчання ботів-психологів.
ШІ-моделі від Hume AI перебувають у відкритому доступі та можуть підключатися до будь-якої LLM і застосунку.