Форма заказа консультации по регулированию финансовой деятельности
telegram icon Связаться с нами
user icon
mail icon
Контактные данные
phone icon
  • Telegram
  • WhatsApp

comment icon
Отсканируйте QR-код
для быстрой связи в Telegram
IncFine QR code

Технология быстро меняет способы, которыми инвестиционные консультанты оказывают услуги своим клиентам. В настоящее время фонды используют целый ряд технологических решений, от передовых торговых алгоритмов до искусственного интеллекта и машинного обучения, для предоставления более качественных услуг своим клиентам. Однако независимо от этих технологических достижений фонды должны учитывать свои обязательства по соблюдению законов о ценных бумагах и соответствующих норм и правил. Регуляторные органы активизируют свои правоприменительные действия в этой области, о чем свидетельствуют недавние судебные разбирательства SEC против двух роботов-консультантов за нарушения положений о мошенничестве, рекламе и комплаенс Закона об инвестиционных советниках в связи с их автоматизированными услугами по управлению инвестициями.

Мощность искусственного интеллекта (AI) и передовой аналитики данных заключается в способности содействовать принятию решений человеком. Хотя компьютеры все в большей степени способны выполнять задачи, которые традиционно ассоциируются с человеческим интеллектом, не существует действительно «автономных» технологий, и компании, использующие стратегии AI, должны внедрять стратегии и процедуры для надлежащего тестирования их эффективности до и после запуска и продолжать мониторинг, чтобы обеспечить соблюдение законодательства.

В данном случае термин «AI» используется на высоком уровне и взаимозаменяемо с машинным обучением в отношении технологии, которая использует данные, независимо от формы и количества, для повышения производительности. Ниже приведены некоторые ключевые моменты для построения ответственной структуры.

Ответственность

Чем сложнее программа, тем сложнее будет проследить прямую связь программы и результата. Однако в целях обеспечения соблюдения законодательства фонды должны иметь возможность поддерживать и демонстрировать достаточный контроль над решениями ИИ. Это важно, в соответствии с законами и правилами США о ценных бумагах, чтобы показать, что фонд правильно выполняет поручения клиента. Кроме того, в соответствии с Общим регламентом о защите данных (GDPR) в ЕС, фонды должны иметь возможность объяснять клиентам, какие данные собираются и как именно они используются. Это требует объяснения того, как работают любые автоматизированные решения. Наконец, фонды должны иметь возможность отслеживать решения AI, чтобы обеспечить соответствие этих решений собственным целям фонда. Это включает документирование всех этапов решений ИИ, включая тестирование и одобрения, обучение, мониторинг и обслуживание.

Прозрачность

AI иногда называют «черным ящиком», потому что связь между входными и выходными данными не всегда ясна, а внутренние операции трудно понять. Это создает риск расхождения между кодом программы и полученными транзакциями. Проблема «черного ящика» может также создать ощущение отсутствия прозрачности как для управляющих активами, так и для клиентов - например, если они не знают, как AI принимает свои решения, соответственно не могут доверять. А менеджеры, возможно, не смогут объяснить регулирующим органам, как принимаются решения в сложных транзакциях AI, которые содержат скрытые уровни принятия решений. Добавление прозрачности и объяснимости процессу моделирования является ключом к любой ответственной структуре AI.

Целостность данных

Решения AI запрограммированы для обработки данных по-разному, учитывая как принимаются решения с течением времени. Следствием этого процесса является то, что решения по AI настолько же хороши, насколько и исходные данные. Первые результаты, вероятно, имеют меньшее качество, чем последующие. Во-вторых, если данные остаются ограниченными или недоступными после принятия первых решений, результаты могут не улучшиться на ожидаемый уровень. Проще говоря, эффективность AI зависит от наличия достаточных качественных данных.

Управление

Быстрые темпы развития технологий требуют, чтобы корпоративные управляющие были осведомлены и следили за технологиями. Важно разработать эффективные операционные модели и процессы AI для повышения ответственности, прозрачности и качества. Регуляторные органы следят, чтобы фонды имели надежное и эффективное управление и контроль, включая систему управления рисками (RMF) для выявления, оценки, контроля и мониторинга рисков, связанных с каждым приложением AI.

Ошибки

С той скоростью, с которой развивается AI, появляется вероятность увеличения ошибок. Поскольку AI создается, чтобы для «учиться» от входных данных, любая ошибка, возникающая на раннем этапе выполнения программы, может быстро превратиться в проблему большого масштаба. Обновления должны выполняться как можно более плавно, минимизируя риски для предстоящих, текущих или завершенных транзакций. Тем не менее, при обновлении AI могут возникать сбои или ошибки, а также могут быть проблемы с доступностью или использованием старых данных. Фонды должны обладать процедурами для документирования и выявления ошибочной логики или рассуждений, а также протоколы восстановления.

Безопасность

Увеличение зависимости от ИИ может привести к дополнительным уязвимостям безопасности. Фонды должны иметь соответствующие процедуры для строгой проверки, постоянного мониторинга и тестирования. Ограничение доступа к системам искусственного интеллекта для соответствующего персонала может помочь предотвратить манипулирование данными и их использование.

Страхование

Фонды и другие организации все чаще управляют рисками, связанными с их решениями ИИ, с соответствующим страховым покрытием. Хотя новые продукты создаются для удовлетворения растущего спроса, страховщики иногда воспринимают ИИ как мультипликатор риска. ИИ должен использоваться ответственно. Хотя фонды все чаще рассматривают решения ИИ, им следует внимательно следить за тем, как ИИ влияет на существующие риски и создает новые потенциальные правовые риски и риски соответствия для их организации. Мы ожидаем, что регулирующие органы будут пристально следить за приложениями ИИ и будут продолжать предпринимать принудительные действия против фирм за неправильное использования ИИ. Создание ответственной структуры AI поможет фондам поддерживать соответствие законодательным и регуляторным требованиям, продолжая при этом обеспечивать высокий уровень обслуживания клиентов экономически эффективным образом.