The post has been translated automatically. Original language: Russian
There is a trend in the modern IT industry to use universal LLMs for any task. However, in highly specialized niches such as fintech, we face severe limitations in terms of speed and accuracy. In this article, we will share our experience in developing a market sentiment analysis system where latency is a critical factor.
Technology stack and model selection
The main problem with standard language models (for example, GPT-4) is the inference time, which reaches 3-5 seconds. This is unacceptable for active trading.
At Atlas Quant Pro, we followed the path of using Narrow AI:
- Architecture: We used proprietary models based on FinBERT.
- Optimization: Additional training on specific financial datasets has reduced the processing time of a single news headline to 0.1 seconds.
- Multilingualism: Implemented an add-in for processing data in different languages (including Chinese and Arabic) with instant conversion to a single Sentiment Score. This solves the problem of global monitoring without using external heavy translators.
Case study: Solving the problem of "noise" and the language barrier
During the development process, we came across the fact that standard algorithms often misinterpret financial slang. Our approach was to create a custom processing layer that understands the context of the markets.
Case study: The integration of an integrated AI translator has made it possible to process local news from the MENA and Asian markets without losing context, which is crucial for real-time decision-making.
Development of DeepTech in Kazakhstan
The project is developing. Our goal is to show that local teams can create globally competitive DeepTech solutions. We have already launched an MVP with a full-fledged authorization system and distributed access.
Conclusion
In 2025, specialized small models (SLMs) will become a more effective tool for the B2B sector than universal chatbots, due to the speed and absence of "hallucinations".
В современной ИТ-индустрии сложился тренд на использование универсальных LLM для любых задач. Однако в узкоспециализированных нишах, таких как финтех, мы сталкиваемся с жесткими ограничениями по скорости и точности. В этой статье мы поделимся опытом разработки системы анализа рыночного сентимента, где критическим фактором является задержка (latency).
Технологический стек и выбор модели
Основная проблема стандартных языковых моделей (например, GPT-4) — время инференса, достигающее 3–5 секунд. Для активного трейдинга это недопустимо.
В Atlas Quant Pro мы пошли по пути использования Narrow AI:
- Архитектура: Мы использовали проприетарные модели на базе FinBERT.
- Оптимизация: Дообучение на специфических финансовых датасетах позволило сократить время обработки одного новостного заголовка до 0.1 секунды.
- Мультиязычность: Реализована надстройка для обработки данных на разных языках (включая китайский и арабский) с мгновенным приведением к единому Sentiment Score. Это решает задачу глобального мониторинга без использования внешних тяжелых переводчиков.
Кейс: Решение задачи «шума» и языкового барьера
В процессе разработки мы столкнулись с тем, что стандартные алгоритмы часто неверно интерпретируют финансовый сленг. Наш подход заключался в создании кастомного слоя обработки, который понимает контекст рынков.
Пример из практики: интеграция встроенного ИИ-переводчика позволила обрабатывать локальные новости рынков MENA и Азии без потери контекста, что критически важно для принятия решений в реальном времени.
Развитие DeepTech в Казахстане
Проект развивается. Наша цель — показать, что локальные команды могут создавать конкурентоспособные на мировом уровне решения в области DeepTech. Мы уже запустили MVP с полноценной системой авторизации и распределенным доступом.
Вывод
Специализированные малые модели (SLM) в 2025 году становятся более эффективным инструментом для B2B-сектора, чем универсальные чат-боты, за счет скорости и отсутствия «галлюцинаций».