Публикация была переведена автоматически. Исходный язык: Русский
В современной ИТ-индустрии сложился тренд на использование универсальных LLM для любых задач. Однако в узкоспециализированных нишах, таких как финтех, мы сталкиваемся с жесткими ограничениями по скорости и точности. В этой статье мы поделимся опытом разработки системы анализа рыночного сентимента, где критическим фактором является задержка (latency).
Технологический стек и выбор модели
Основная проблема стандартных языковых моделей (например, GPT-4) — время инференса, достигающее 3–5 секунд. Для активного трейдинга это недопустимо.
В Atlas Quant Pro мы пошли по пути использования Narrow AI:
- Архитектура: Мы использовали проприетарные модели на базе FinBERT.
- Оптимизация: Дообучение на специфических финансовых датасетах позволило сократить время обработки одного новостного заголовка до 0.1 секунды.
- Мультиязычность: Реализована надстройка для обработки данных на разных языках (включая китайский и арабский) с мгновенным приведением к единому Sentiment Score. Это решает задачу глобального мониторинга без использования внешних тяжелых переводчиков.
Кейс: Решение задачи «шума» и языкового барьера
В процессе разработки мы столкнулись с тем, что стандартные алгоритмы часто неверно интерпретируют финансовый сленг. Наш подход заключался в создании кастомного слоя обработки, который понимает контекст рынков.
Пример из практики: интеграция встроенного ИИ-переводчика позволила обрабатывать локальные новости рынков MENA и Азии без потери контекста, что критически важно для принятия решений в реальном времени.
Развитие DeepTech в Казахстане
Проект развивается. Наша цель — показать, что локальные команды могут создавать конкурентоспособные на мировом уровне решения в области DeepTech. Мы уже запустили MVP с полноценной системой авторизации и распределенным доступом.
Вывод
Специализированные малые модели (SLM) в 2025 году становятся более эффективным инструментом для B2B-сектора, чем универсальные чат-боты, за счет скорости и отсутствия «галлюцинаций».
В современной ИТ-индустрии сложился тренд на использование универсальных LLM для любых задач. Однако в узкоспециализированных нишах, таких как финтех, мы сталкиваемся с жесткими ограничениями по скорости и точности. В этой статье мы поделимся опытом разработки системы анализа рыночного сентимента, где критическим фактором является задержка (latency).
Технологический стек и выбор модели
Основная проблема стандартных языковых моделей (например, GPT-4) — время инференса, достигающее 3–5 секунд. Для активного трейдинга это недопустимо.
В Atlas Quant Pro мы пошли по пути использования Narrow AI:
- Архитектура: Мы использовали проприетарные модели на базе FinBERT.
- Оптимизация: Дообучение на специфических финансовых датасетах позволило сократить время обработки одного новостного заголовка до 0.1 секунды.
- Мультиязычность: Реализована надстройка для обработки данных на разных языках (включая китайский и арабский) с мгновенным приведением к единому Sentiment Score. Это решает задачу глобального мониторинга без использования внешних тяжелых переводчиков.
Кейс: Решение задачи «шума» и языкового барьера
В процессе разработки мы столкнулись с тем, что стандартные алгоритмы часто неверно интерпретируют финансовый сленг. Наш подход заключался в создании кастомного слоя обработки, который понимает контекст рынков.
Пример из практики: интеграция встроенного ИИ-переводчика позволила обрабатывать локальные новости рынков MENA и Азии без потери контекста, что критически важно для принятия решений в реальном времени.
Развитие DeepTech в Казахстане
Проект развивается. Наша цель — показать, что локальные команды могут создавать конкурентоспособные на мировом уровне решения в области DeepTech. Мы уже запустили MVP с полноценной системой авторизации и распределенным доступом.
Вывод
Специализированные малые модели (SLM) в 2025 году становятся более эффективным инструментом для B2B-сектора, чем универсальные чат-боты, за счет скорости и отсутствия «галлюцинаций».