Sam Altman está contratando alguém para se preocupar com os perigos da IA

OpenAI está contratando um Chefe de Preparação. Ou, em outras palavras, alguém cuja tarefa principal é pensar em todas as maneiras pelas quais a IA pode dar terrivelmente errado. Num post no X, Sam Altman anunciou a posição reconhecendo que a rápida melhoria dos modelos de IA apresenta “alguns desafios reais”. A postagem continua destacando especificamente o impacto potencial na saúde mental das pessoas e os perigos das armas de segurança cibernética alimentadas por IA.

A lista de empregos diz que a pessoa na função seria responsável por:

“Rastreando e preparando-se para capacidades de fronteira que criam novos riscos de danos graves. Você será o líder diretamente responsável pela construção e coordenação de avaliações de capacidade, modelos de ameaças e mitigações que formam um pipeline de segurança coerente, rigoroso e operacionalmente escalonável.”

Altman também diz que, olhando para o futuro, esta pessoa seria responsável por executar o “quadro de preparação” da empresa, assegurando modelos de IA para a libertação de “capacidades biológicas” e até mesmo estabelecendo barreiras de protecção para sistemas de auto-aperfeiçoamento. Ele também afirma que será um “trabalho estressante”, o que parece um eufemismo.

The Verge é site parceiro do Blog do Esmael

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *