Så ska OpenAI utvärdera risken med sina AI-modeller
OpenAI har bildat en ny tillsynskommitté för att utvärdera säkerheten hos bolagets AI-modeller. Kommittén, som kommer att verka under 90 dagar, ska sedan publicera en rapport och dela rekommendationer på ett sätt som är förenligt med säkerhet.
- Ny tillsynskommitté ska utvärdera säkerheten hos OpenAI:s teknologi
- Kommer att verka i 90 dagar och sedan publicera en rapport
- Kommittén bildas efter upplösningen av ett tidigare internt team
Syftet med tillsynskommittén
OpenAI har meddelat att de har bildat en ny tillsynskommitté med uppdraget att utvärdera säkerheten för deras artificiella intelligensmodeller. Detta initiativ meddelades i ett blogginlägg på tisdagen, där bolaget förklarade att kommittén kommer att verka under en 90-dagarsperiod. Efter denna period kommer en rapport att publiceras, och bolaget planerar att dela en uppdatering om de antagna rekommendationerna på ett sätt som säkerställer fortsatt säkerhet.
Bakgrund och tidigare förändringar
Den nya kommittén bildas efter att OpenAI tidigare upplöste sitt interna team som var fokuserat på att hantera långsiktiga risker med superintelligent AI. Beslutet att upplösa det tidigare teamet kom efter flera avhopp inom organisationen, inklusive medgrundare Ilya Sutskever, som hade rollen som "Chief Scientist" på OpenAI.
Detta rapporterar nyhetsbyrån Finwire om.
Kommitténs sammansättning
Den nybildade kommittén består av ordförande Bret Taylor, Quoras vd Adam D'Angelo, tidigare Sony-chefen Nicole Seligman, samt sex anställda från OpenAI. En av dessa anställda är medgrundare John Schulman, som nu har titeln "Head of Alignment Science". Schulman var tidigare en del av det nu upplösta teamet. OpenAI:s vd Sam Altman är också en del av kommittén.
På Börskollen ser vi detta som ett viktigt steg för OpenAI i deras strävan att säkerställa att deras AI-teknologi utvecklas på ett säkert sätt. Vi kommer att följa utvecklingen noga och uppdatera våra läsare när den officiella rapporten och rekommendationerna publiceras.