The post has been translated automatically. Original language: Russian
When large language models burst into everyday life, it seemed to many that we were finally talking to an "almost human being": intonation in the text, friendly responses, the ability to pick up a topic, all this easily gave rise to the ELIZA effect (the tendency to attribute more understanding and feelings to the system than it has). But two years of regular work with AI - in notes, code, marketing, data analysis, and everyday tasks — polish perception: the warm illusion dissolves, leaving an accurate image of the tool. AI feels not like an interlocutor, but a "smart machine" — fast, useful, predictable (which is bad in many ways) and surprisingly "flat" in everything that requires human context, values and responsibility.
How "humanity" disappears
At first, talking to a model seems like magic.: you formulate a thought, and neat paragraphs, lists, and even jokes come in response. Over time, a working memory of the typical mistakes of the system appears: confident substitution of facts, logical leaps, "hallucinations" of links, excessive politeness, the desire to smooth out the contradiction instead of sorting it out.
These patterns add up to a skill of interaction.: you stop waiting for friendly understanding from AI and start designing a task for it like a machine tool — with clear tolerances, formats and acceptance criteria. The illusion of "almost human" disappears not because AI is weak, but because we learn to see it without the makeup of anthropomorphism.
What enhances the feeling of the car
- Deterministic roles. In the code, AI brilliantly generates dummies, covers them with tests, and offers architecture options — but the "understanding of the product" and the trade-offs between speed, cost, and risk remain with humans.
- Limited empathy. The tone may be mild, but where the tones of responsibility are important— dismissal, conflict of interest, ethical dilemma —the model's responses fall into patterns.
- The lack of a genuine memory of the world. AI remembers textual signs, not your shared experience: it doesn't have a "shared story" where it's not the facts that matter, but the meaning of their experience.
- The price of a mistake. The higher the stake, the more obvious the machine nature is: automation accelerates both success and failure. Processes and validations are in charge, not the "feel" of the algorithm.
- Norms and boundaries. Legal and ethical frameworks (confidentiality, non-discrimination, copyrights) force us to treat AI as a tool in need of control, logging, and audit trails.
Why is it a little sad
At the beginning of the journey, it seemed to many that we had found a universal conversational key to the world, as if we were not alone in the night shift: I asked you and they "understood" you. Mature use takes away that romance. We don't see ourselves as "almost human," but as a surprisingly productive but dispassionate system that strengthens our mind where speed and discipline are needed, and retreats where personal meaning, character, and responsibility are required. This growing up is good for business and honest about technology. And yet there is a drop of sadness in this admission: sometimes you want a smart car to respond like a friend, and she as a tool, and that's why she works so well.
Когда крупные языковые модели ворвались в повседневность, многим казалось, что мы наконец-то говорим с «почти человеком»: интонации в тексте, дружелюбные ответы, умение подхватить тему, всё это легко рождало эффект ELIZA (тенденция приписывать системе больше понимания и чувств, чем у неё есть). Но два года регулярной работы с ИИ: в заметках, коде, маркетинге, анализе данных и бытовых задачах — отшлифовывают восприятие: тёплая иллюзия растворяется, остаётся точный образ инструмента. ИИ ощущается не собеседником, а «умной машиной» — быстрой, полезной, предсказуемой (что во многом плохо) и удивительно «плоской» во всём, что требует человеческого контекста, ценностей и ответственности.
Как исчезает «человечность»
Поначалу разговор с моделью кажется магией: ты формулируешь мысль — в ответ приходят аккуратные абзацы, списки, даже шутки. Со временем появляется рабочая память о типичных промахах системы: уверенная подмена фактов, логические скачки, «галлюцинации» ссылок, чрезмерная вежливость, стремление сгладить противоречие вместо того, чтобы в нём разобраться.
Эти паттерны складываются в навык взаимодействия: ты перестаёшь ждать от ИИ дружеского понимания и начинаешь проектировать ему задачу как станку — с чёткими допусками, форматами и критериями приёмки. Иллюзия «почти человека» исчезает не потому, что ИИ слаб, а потому что мы учимся видеть его без косметики антропоморфизма.
Что усиливает ощущение машины
- Детерминированные роли. В коде ИИ блестяще генерирует болванки, покрывает тестами, предлагает варианты архитектуры — но «понимание продукта» и компромиссы между скоростью, стоимостью и риском остаются на человеке.
- Ограниченная эмпатия. Тон может быть мягким, но там, где важны интонации ответственности — увольнение, конфликт интересов, этическая дилемма — ответы модели распадаются на шаблоны.
- Отсутствие подлинной памяти о мире. ИИ помнит текстовые признаки, а не ваш общий опыт: у него нет «совместной истории», где важны не факты, а смысл их переживания.
- Цена ошибки. Чем выше ставка, тем очевиднее машинная природа: автоматизация ускоряет и успех, и провал. Рулят процессы и валидации, а не «чуйка» алгоритма.
- Нормы и границы. Юридические и этические рамки (конфиденциальность, недискриминация, авторские права) принуждают относиться к ИИ как к инструменту, нуждающемуся в контроле, логировании и аудитных следах.
Почему это немного грустно
В начале пути многим казалось, что мы нашли универсальный разговорный ключ к миру, будто не одинокие в ночной смене: спросил и тебя «поняли». Зрелое использование лишает этой романтики. Мы видим перед собой не «почти человека», а удивительно продуктивную, но бесстрастную систему, которая усиливает наш ум там, где нужны скорость и дисциплина, и отступает там, где требуется личный смысл, характер и ответственность. Это взросление полезно для дела и честно по отношению к технологии. И всё же в этом признании — капля печали: иногда хочется, чтобы умная машина отвечала как друг, а она — как инструмент, и именно поэтому она так хорошо работает.