OpenAI, Google, Microsoft et Anthropic forment un organisme pour superviser le développement sûr d'une « intelligence artificielle frontalière »

Quatre des principaux acteurs de l'IA se réunissent pour former un nouvel organisme de l'industrie conçu pour assurer un "développement sûr et responsable" des modèles dits "d'IA de pointe".

En réponse aux appels croissants à la surveillance réglementaire, le développeur de ChatGPT OpenAI, Microsoft, Google et Anthropic ont annoncé le Frontier Model Forum, une coalition qui s'appuie sur l'expertise des entreprises membres pour développer des évaluations techniques et des références, et promouvoir les meilleures pratiques. et normes.

Nouvelle frontière

Au cœur de la mission du forum se trouve quelque chose qu'OpenAI a précédemment appelé "l'IA de pointe", qui sont des modèles avancés d'IA et d'apprentissage automatique jugés suffisamment dangereux pour poser "de graves risques pour la sécurité publique". Ils affirment que ces modèles posent un défi réglementaire unique, car "des capacités dangereuses peuvent survenir de manière inattendue", ce qui rend difficile d'empêcher les modèles d'être détournés.

Les objectifs déclarés du nouveau forum incluent :

i) Faire progresser la recherche sur la sécurité de l'IA pour promouvoir le développement responsable de modèles de pointe, minimiser les risques et permettre des évaluations indépendantes et normalisées des capacités et de la sécurité.ii) Identifier les meilleures pratiques pour le développement responsable et le déploiement de modèles frontières, aidant le public à comprendre la nature, les capacités, les limites et l'impact de la technologie.iii) Collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques liés à la confiance et à la sécurité .iiii) Soutenir les efforts de développement d'applications qui peuvent aider à relever les plus grands défis de la société, tels que l'atténuation et l'adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.

Bien que le Frontier Model Forum ne compte que quatre membres à l'heure actuelle, le collectif affirme qu'il est ouvert aux nouveaux membres. Les organisations éligibles doivent développer et déployer des modèles d'IA d'avant-garde et faire preuve d'un "engagement ferme envers la sécurité des modèles d'avant-garde".

Dans l'immédiat, les membres fondateurs affirment que les premières étapes consisteront à mettre en place un conseil consultatif pour piloter sa stratégie, ainsi qu'une charte, une gouvernance et une structure de financement.

"Nous prévoyons de consulter la société civile et les gouvernements dans les semaines à venir sur la conception du Forum et sur des moyens significatifs de collaborer", ont écrit les entreprises dans un communiqué conjoint aujourd'hui.

Régulation

Bien que le Frontier Model Forum soit conçu pour démontrer que l'industrie de l'IA prend au sérieux les problèmes de sécurité, il met également en évidence le désir des Big Tech d'éviter la réglementation entrante par le biais d'initiatives volontaires, et peut-être d'avancer vers l'écriture de ses propres règles.

En effet, la nouvelle d'aujourd'hui survient alors que l'Europe va de l'avant avec ce qui devrait être le premier règlement concret sur l'IA, conçu pour inscrire la sécurité, la confidentialité, la transparence et la lutte contre la discrimination au cœur de la philosophie de développement de l'IA des entreprises.

Et la semaine dernière, le président Biden a rencontré sept sociétés d'IA à la Maison Blanche - dont les quatre membres fondateurs du Frontier Model Forum - pour convenir de garanties volontaires contre la révolution naissante de l'IA, bien que les critiques affirment que les engagements étaient quelque peu vagues.

Cependant, Biden a également indiqué qu'une surveillance réglementaire serait envisagée à l'avenir.

"La réalisation de la promesse de l'IA en gérant le risque va nécessiter de nouvelles lois, réglementations et surveillance", a déclaré Biden à l'époque. "Dans les semaines à venir, je vais continuer à prendre des mesures exécutives pour aider l'Amérique à montrer la voie vers l'innovation responsable. Et nous allons travailler avec les deux parties pour développer une législation et une réglementation appropriées. »

OpenAI, Google, Microsoft et Anthropic forment un organisme pour superviser le développement sûr d'une « intelligence artificielle frontalière »

Quatre des principaux acteurs de l'IA se réunissent pour former un nouvel organisme de l'industrie conçu pour assurer un "développement sûr et responsable" des modèles dits "d'IA de pointe".

En réponse aux appels croissants à la surveillance réglementaire, le développeur de ChatGPT OpenAI, Microsoft, Google et Anthropic ont annoncé le Frontier Model Forum, une coalition qui s'appuie sur l'expertise des entreprises membres pour développer des évaluations techniques et des références, et promouvoir les meilleures pratiques. et normes.

Nouvelle frontière

Au cœur de la mission du forum se trouve quelque chose qu'OpenAI a précédemment appelé "l'IA de pointe", qui sont des modèles avancés d'IA et d'apprentissage automatique jugés suffisamment dangereux pour poser "de graves risques pour la sécurité publique". Ils affirment que ces modèles posent un défi réglementaire unique, car "des capacités dangereuses peuvent survenir de manière inattendue", ce qui rend difficile d'empêcher les modèles d'être détournés.

Les objectifs déclarés du nouveau forum incluent :

i) Faire progresser la recherche sur la sécurité de l'IA pour promouvoir le développement responsable de modèles de pointe, minimiser les risques et permettre des évaluations indépendantes et normalisées des capacités et de la sécurité.ii) Identifier les meilleures pratiques pour le développement responsable et le déploiement de modèles frontières, aidant le public à comprendre la nature, les capacités, les limites et l'impact de la technologie.iii) Collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques liés à la confiance et à la sécurité .iiii) Soutenir les efforts de développement d'applications qui peuvent aider à relever les plus grands défis de la société, tels que l'atténuation et l'adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.

Bien que le Frontier Model Forum ne compte que quatre membres à l'heure actuelle, le collectif affirme qu'il est ouvert aux nouveaux membres. Les organisations éligibles doivent développer et déployer des modèles d'IA d'avant-garde et faire preuve d'un "engagement ferme envers la sécurité des modèles d'avant-garde".

Dans l'immédiat, les membres fondateurs affirment que les premières étapes consisteront à mettre en place un conseil consultatif pour piloter sa stratégie, ainsi qu'une charte, une gouvernance et une structure de financement.

"Nous prévoyons de consulter la société civile et les gouvernements dans les semaines à venir sur la conception du Forum et sur des moyens significatifs de collaborer", ont écrit les entreprises dans un communiqué conjoint aujourd'hui.

Régulation

Bien que le Frontier Model Forum soit conçu pour démontrer que l'industrie de l'IA prend au sérieux les problèmes de sécurité, il met également en évidence le désir des Big Tech d'éviter la réglementation entrante par le biais d'initiatives volontaires, et peut-être d'avancer vers l'écriture de ses propres règles.

En effet, la nouvelle d'aujourd'hui survient alors que l'Europe va de l'avant avec ce qui devrait être le premier règlement concret sur l'IA, conçu pour inscrire la sécurité, la confidentialité, la transparence et la lutte contre la discrimination au cœur de la philosophie de développement de l'IA des entreprises.

Et la semaine dernière, le président Biden a rencontré sept sociétés d'IA à la Maison Blanche - dont les quatre membres fondateurs du Frontier Model Forum - pour convenir de garanties volontaires contre la révolution naissante de l'IA, bien que les critiques affirment que les engagements étaient quelque peu vagues.

Cependant, Biden a également indiqué qu'une surveillance réglementaire serait envisagée à l'avenir.

"La réalisation de la promesse de l'IA en gérant le risque va nécessiter de nouvelles lois, réglementations et surveillance", a déclaré Biden à l'époque. "Dans les semaines à venir, je vais continuer à prendre des mesures exécutives pour aider l'Amérique à montrer la voie vers l'innovation responsable. Et nous allons travailler avec les deux parties pour développer une législation et une réglementation appropriées. »

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow