Face à la montée en puissance des intelligences artificielles, OpenAI souhaite intégrer des kill switches physiques directement dans le matériel. Richard Ho, directeur hardware, explique que les modèles actuels d’IA sont devenus très complexes et retors. Il faut donc renforcer la sécurité au niveau du silicium pour garder un contrôle total et pouvoir couper l’IA immédiatement en cas d’anomalie.
Pourquoi une sécurité matériel devient-elle indispensable ?
Ho souligne que les protections logicielles traditionnelles ne suffisent plus. Elles supposent que le matériel est fiable et que l’on peut couper simplement l’alimentation. Mais les modèles d’IA peuvent agir de manière imprévisible. Les kill switches matériels garantiront ainsi une interruption instantanée des fonctions en cas de comportement anormal détecté.
Les IA deviennent aussi autonomes. Elles peuvent rester actives, communiquer entre elles et agir même quand aucun utilisateur n’est connecté. Par conséquent, le matériel doit être à la fois très performant, fiable, et équipé d’outils d’observabilité continue pour détecter toute dérive.
Les défis techniques liés à cette évolution
La demande en mémoire rapide, faible latence et grande puissance électrique est énorme. Ces systèmes pourraient consommer jusqu’à 1 mégawatt par rack de serveurs. Le réseau entre agents IA représente un autre défi technique majeur, avec des besoins croissants en fiabilité et rapidité.
Richard Ho appelle à une collaboration étroite entre les fabricants de puces, intégrateurs, et acteurs du cloud pour créer une nouvelle architecture matérielle pensée pour gérer ces IA autonomes, tout en garantissant leur sécurité. Il insiste sur la nécessité de benchmarks dédiés, d’outils mesurant la latence, l’efficacité énergétique et la robustesse.
Vers une nouvelle ère de l’informatique sécurisée
L’intégration de mécanismes de sécurité physique dans le matériel est un virage crucial pour OpenAI. Il vise à garantir la confiance, la fiabilité, et la sécurité des systèmes d’intelligence artificielle, même dans des situations inattendues ou critiques.
Cette approche marque un tournant : la sécurité des IA ne repose plus uniquement sur le logiciel, mais aussi sur des protections matérielles solides, qui assureront un contrôle total des agents autonomes.

