Интеграция больших языковых моделей (LLM) в финансовые приложения демонстрирует значительный потенциал, способный улучшить процессы принятия решений, автоматизировать операции и предоставлять персонализированные услуги. Однако высокая степень риска финансовых систем требует чрезвычайно высокой надежности, которой современные LLM зачастую не соответствуют. В данном исследовании идентифицированы и рассмотрены три основных проблемы надежности в финансовых системах на базе LLM: (1) обход методов настройки — использование уязвимостей модели для генерации вредоносных или запрещённых ответов; (2) галлюцинации — выдача моделью фактически неверных результатов, вводящих финансовые решения в заблуждение; (3) предвзятость и вопросы справедливости — встроенные в LLM демографические или институциональные предубеждения, которые могут привести к несправедливому отношению к отдельным лицам или регионам. Для конкретного представления этих рисков были разработаны три финансовых теста и проведена оценка основных моделей, включая проприетарные и открытые семейства LLM. Во всех моделях минимум один раз обнаруживалось рискованное поведение в каждом тесте. На основе этих находок систематически суммированы существующие стратегии смягчения рисков. Мы считаем, что решение этих вопросов важно не только для обеспечения ответственного использования ИИ в финансах, но и является ключом к безопасному и масштабируемому развертыванию.