Загрузка страницы

DT36 INCYBER IA sous surveillance : la confiance se mérite, même pour les IA !

Les modèles de type LLM (Large Language Models) sont devenus des outils puissants mais ils représentent une cible privilégiée pour les cybercriminels. Parmi les risques majeurs : injections de prompt, manipulations logiques, et détournement d’usage, pouvant mener à des divulgations de données sensibles ou des comportement imprévus. L’architecture LEARN apporte une méthode robuste à la sécurisation des LLMs. La démonstration montrera comment une approche Zero Trust permet une adhérence à ces bonnes pratiques, notamment en contrôlant les risques liés aux injections de prompt.

Видео DT36 INCYBER IA sous surveillance : la confiance se mérite, même pour les IA ! канала Forum InCyber
Cybersecurity, Cybersécurité, Cyber, débats, focus, interview, Cyberleaders, forum international sur la cybersécurité, FIC, Forum, incyber, incyber media
Показать
Страницу в закладки Мои закладки
Все заметки Новая заметка Страницу в заметки