Сумма: 0
Количество заявок: 2
15.04.26
≈ 750 000 — 980 000 тг
Идея
Задачи ИКТ
medical
Другие технологические решения
ПО/ИС
Автоматическая транскрипция звонков (перевод голоса в текст), семантический анализ разговора, выявление эмоционального фона, оценка работы оператора по заданному чек-листу, выдача подсказок по улучшению скриптов. Интеграции: Whisper API (OpenAI) для распознавания речи, KazNLP / RuBERT / ChatGPT API для анализа текста, DeepSpeech (как офлайн-резерв) Суть: Внедрение искусственного интеллекта на базе нейросетей для автоматической транскрипции и анализа разговоров операторов с пациентами. Цель разработки: Автоматизация контроля качества работы колл-центра, определение эмоционального фона звонка и формирование подсказок по улучшению скриптов. Ожидаемый эффект: Повышение конверсии из звонка в запись, стандартизация качества коммуникации и возможность продавать модуль клиникам как дополнительную подписку. Ожидаемые технические задачи: Разработка (Python): Написание кастомного пайплайна (Custom Python pipeline) для пакетной обработки аудиозаписей. Интеграции AI: Подключение Whisper API (OpenAI) для перевода голоса в текст, а также интеграция с KazNLP, RuBERT и ChatGPT API для семантического анализа и проверки соблюдения чек-листов операторами. Резервирование: Настройка DeepSpeech как офлайн-инструмента для распознавания речи на случай перебоев с внешними API. Формат работы: R&D (исследования и разработка). Формируется датасет тестовых звонков, затем поэтапно обучается и калибруется модель оценки эмоций и скриптов. KPI проекта: Точность распознавания речи (транскрипции) — не ниже 90%. Покрытие анализом — 100% входящих и исходящих звонков клиники. Примерный бюджет: ≈ 750 000 — 980 000 тг
Автоматическая транскрипция звонков (перевод голоса в текст), семантический анализ разговора, выявление эмоционального фона, оценка работы оператора по заданному чек-листу, выдача подсказок по улучшению скриптов. Интеграции: Whisper API (OpenAI) для распознавания речи, KazNLP / RuBERT / ChatGPT API для анализа текста, DeepSpeech (как офлайн-резерв) Суть: Внедрение искусственного интеллекта на базе нейросетей для автоматической транскрипции и анализа разговоров операторов с пациентами. Цель разработки: Автоматизация контроля качества работы колл-центра, определение эмоционального фона звонка и формирование подсказок по улучшению скриптов. Ожидаемый эффект: Повышение конверсии из звонка в запись, стандартизация качества коммуникации и возможность продавать модуль клиникам как дополнительную подписку. Ожидаемые технические задачи: Разработка (Python): Написание кастомного пайплайна (Custom Python pipeline) для пакетной обработки аудиозаписей. Интеграции AI: Подключение Whisper API (OpenAI) для перевода голоса в текст, а также интеграция с KazNLP, RuBERT и ChatGPT API для семантического анализа и проверки соблюдения чек-листов операторами. Резервирование: Настройка DeepSpeech как офлайн-инструмента для распознавания речи на случай перебоев с внешними API. Формат работы: R&D (исследования и разработка). Формируется датасет тестовых звонков, затем поэтапно обучается и калибруется модель оценки эмоций и скриптов. KPI проекта: Точность распознавания речи (транскрипции) — не ниже 90%. Покрытие анализом — 100% входящих и исходящих звонков клиники. Примерный бюджет: ≈ 750 000 — 980 000 тг
Амина Агзамова
Цель и описание задачи (проекта)
Суть: Внедрение искусственного интеллекта на базе нейросетей для автоматической транскрипции и анализа разговоров операторов с пациентами. Суть: Внедрение искусственного интеллекта на базе нейросетей для автоматической транскрипции и анализа разговоров операторов с пациентами. Цель разработки: Автоматизация контроля качества работы колл-центра, определение эмоционального фона звонка и формирование подсказок по улучшению скриптов. Ожидаемый эффект: Повышение конверсии из звонка в запись, стандартизация качества коммуникации и возможность продавать модуль клиникам как дополнительную подписку. Ожидаемые технические задачи: Разработка (Python): Написание кастомного пайплайна (Custom Python pipeline) для пакетной обработки аудиозаписей. Интеграции AI: Подключение Whisper API (OpenAI) для перевода голоса в текст, а также интеграция с KazNLP, RuBERT и ChatGPT API для семантического анализа и проверки соблюдения чек-листов операторами. Резервирование: Настройка DeepSpeech как офлайн-инструмента для распознавания речи на случай перебоев с внешними API. Формат работы: R&D (исследования и разработка). Формируется датасет тестовых звонков, затем поэтапно обучается и калибруется модель оценки эмоций и скриптов. KPI проекта: Точность распознавания речи (транскрипции) — не ниже 90%. Покрытие анализом — 100% входящих и исходящих звонков клиники.