Cerca de 30 ativistas se reuniram na entrada do escritório da OpenAI em São Francisco na tarde de segunda-feira (12), determinados a se fazerem ouvir. “Pausem a IA!” um deles gritou em um megafone e a multidão respondeu: “Porque não queremos morrer!”
Eles seguravam cartazes que diziam: “Não confie em Sam Altman” e “Sobrevivência acima dos lucros”. Três andares acima, alguns funcionários da OpenAI foram até as janelas para espiar e tirar fotos.
Os manifestantes estavam especificamente preocupados com a forma como, em janeiro, a OpenAI alterou discretamente as suas políticas de utilização para remover a proibição de aplicações “militares e de guerra” para os seus produtos.
Poucos dias depois, um executivo da OpenAI disse em entrevista à Bloomberg que a empresa está trabalhando com o Departamento de Defesa dos EUA em software de segurança cibernética de código aberto e em negociações com o governo dos EUA para ajudar a prevenir o suicídio de veteranos.
Mas, de acordo com os protestantes, o problema real é muito maior do que o trabalho dos militares com a OpenAI. Segundo ela, a questão é que a OpenAI declarou publicamente que não estaria disponível para assuntos militares e depois retirou o compromisso.
Sam Altman, CEO da OpenAI, também fez declarações no ano passado dizendo que seu conselho deveria poder demiti-lo. Mais tarde, quando o conselho o demitiu, ele retornou ao cargo de CEO cinco dias depois.
“Não há limites para esses limites. Mesmo quando existem limites muito sensatos estabelecidos pelas empresas, elas podem simplesmente alterá-los quando quiserem”, disseram os protestantes.
Um porta-voz da OpenAI disse que mantém a proibição do uso de suas ferramentas para construir armas, ferir pessoas ou destruir propriedades. Alterou a proibição militar para permitir projetos que ainda estão “muito alinhados com o que queremos ver no mundo”, disse Anna Makanju, vice-presidente da OpenAI para assuntos globais, no mês passado.
Os trabalhos desses protestantes está em linha com parte da população, que prefere retardar o desenvolvimento da IA e acredita que a IA pode acidentalmente causar uma catástrofe.
“Você não precisa ser um gênio para entender que construir máquinas poderosas que você não pode controlar talvez seja uma má ideia”, disseram. “Talvez não devêssemos simplesmente deixar que o mercado nos protegesse disso”.
Com informações da Bloomberg.