Executivos saem da empresa, citando falta de compromisso com segurança. Nova equipe executiva focada em segurança e inteligência.
A OpenAI anunciou nesta terça-feira (28) a criação de um novo comitê para fornecer orientações ao conselho da empresa sobre segurança e proteção, em meio à dissolução de uma equipe dedicada à segurança da inteligência artificial. O comitê, liderado pelo CEO Sam Altman, juntamente com Bret Taylor, presidente do conselho da empresa, e Nicole Seligman, membro do conselho, tem o objetivo de fortalecer as políticas de segurança da OpenAI.
Após a saída de Jan Leike, executivo da OpenAI responsável pela segurança, a empresa enfrentou críticas sobre os investimentos insuficientes na área de segurança de IA. Leike afirmou que as tensões com a liderança da OpenAI atingiram um ponto crítico, levando à formação do novo comitê para garantir a segurança e a proteção dos sistemas de inteligência artificial da empresa.
OpenAI: Empresa de Tecnologia Focada em Segurança e Proteção
A empresa de IA fundada por Elon Musk arrecadou recentemente US$ 6 bilhões em sua última captação de recursos, um marco significativo no setor. Enquanto isso, a China continua a investir pesadamente em sua indústria de chips, com um investimento que ultrapassa os US$ 47 bilhões, demonstrando seu compromisso com a inovação e a segurança cibernética.
A mudança de liderança na OpenAI, com a saída de Ilya Sutskever, destaca a importância da equipe de ‘superalinhamento’ da empresa, cujo foco está em garantir que o desenvolvimento da IA atenda às necessidades e prioridades humanas. Sutskever desempenhou um papel crucial nesse processo, contribuindo para decisões estratégicas e apoiando a liderança da empresa.
Recentemente, a OpenAI anunciou a formação de um novo Comitê de Segurança e Proteção, dedicado a avaliar e aprimorar os processos e salvaguardas da empresa. Este comitê terá 90 dias para desenvolver recomendações que serão compartilhadas com o Conselho da OpenAI para revisão e implementação.
Além disso, a empresa revelou planos de treinar um novo modelo de IA para suceder o atual ChatGPT, como parte de seu compromisso contínuo com a inovação e a segurança. O novo modelo, conhecido como GPT-4, representa um avanço significativo em direção à inteligência artificial geral, mantendo um foco constante na segurança e proteção dos usuários.
Em um comunicado, a OpenAI enfatizou a importância de um debate aberto e transparente sobre o desenvolvimento de IA, destacando a necessidade de medidas robustas de segurança. O Comitê de Segurança e Proteção desempenhará um papel fundamental nesse processo, garantindo que as recomendações adotadas sejam consistentes com os mais altos padrões de segurança e proteção.
À medida que a OpenAI avança em sua missão de impulsionar a IA de forma responsável, a empresa reafirma seu compromisso com a segurança cibernética e a proteção dos dados dos usuários. O futuro da IA está intrinsecamente ligado à segurança, e a OpenAI está determinada a liderar o caminho nesse aspecto crucial.
Fonte: © CNN Brasil
Comentários sobre este artigo