Форма заказа консультации по регулированию защиты данных в США
telegram icon Связаться с нами
user icon
mail icon
Контактные данные
phone icon
  • Telegram
  • WhatsApp

comment icon
Отсканируйте QR-код
для быстрой связи в Telegram
IncFine QR code

Данная статья описывает последние новости, связанные с регулированием защиты данных в США и основные обновления законодательных норм, связанных с кибербезопасностью и конфиденциальностью.

Регулирование защиты данных в Соединенный Штатах

Искусственный интеллект (ИИ) недавно был определен как один из самых эффективных инструментов для решения множества экономических и социальных проблем, затрагивающих сферы и финансового мошенничества, и общественной безопасности, и производительности труда.

Тем не менее, проблемы конфиденциальности в отношении ключевых аспектов, лежащих в основе приложений ИИ, требуют четкого регулирования. Существует ряд законодательных норм, которые направлены на защиту от потенциальной опасности использования конфиденциальной информации.

В Европейском союзе два ключевых события в регулировании защиты данных в Европе связаны с принятием Общего регламента защиты данных (GDPR) и недавним выпуском Европейской комиссии (ЕК) «Руководства по этике для надежного ИИ». Однако, более узкие усилия по борьбе с вредом ИИ были предприняты правительством в штате Вашингтон, когда было предложено законодательство, которое налагает обязательства на организации, которые используют конкретную форму ИИ для принятия важных решений. Экспертная группа высокого уровня ЕС по искусственному интеллекту (AI HLEG) 8 апреля 2019 года выпустила «Руководство по этике для заслуживающего доверия ИИ» (Руководство), которое что включает в себя внедрение мер защиты конфиденциальности в систему ИИ в Европе, США и других странах.

В Руководстве говорится, что системы ИИ должны «гарантировать конфиденциальность и защиту данных на протяжении всего жизненного цикла системы», от сбора персональных данных до генерации данных о лицах.

Руководство отмечает необходимость того, чтобы зарегистрированные финтех-компании в США внедрили:

  • механизмы для выявления проблем конфиденциальности во время сбора и обработки данных;
  • меры по защите данных;
  • протоколы и процессы систем ИИ с минимальным использованием личных или конфиденциальных данных.
Прозрачность, которая лежит в основе руководства AI HLEG для надежного ИИ, вызывает растущую обеспокоенность у политиков, обращающихся к правилам конфиденциальности потребителей в целом.

Статья 22 GDPR ограничивает автоматическое принятие решений и профилирование, основанные на автоматизированной обработке персональных данных, которая создает правовые последствия для субъекта данных, за исключением случаев, когда обработка:

  • необходима для заключения или выполнения контракта;
  • на основе явного согласия;
  • разрешено национальным законодательством.
Автоматическое принятие решений, основанное на обработке персональных данных, является основой многих приложений ИИ.

Согласно требованиям GDPR на компании, использующие ИИ, налагаются определенные требования. Персональные данные должны быть «адекватными, актуальными и ограниченными тем, что необходимо для целей, для которых они обрабатываются» и «храниться в форме, которая позволяет идентифицировать субъекты данных не дольше, чем это нужно для изначальных целей».

Юридическая консультация по регулированию защиты данных в США от сотрудников компании IncFine поможет более детально разобраться в этой теме. Наши специалисты помогут зарегистрировать Финтех-компанию в США, а также окажут помощь по составлению правил согласно требованиям GDPR.