Sim… estava demorando para toda a comunidade de tecnologia e pesquisadores perceberem que a evolução da IA não é o que ele pensaram antes.
O documento, cujo título é Pause Giant AI Experiments: An Open Letter (Pausem os Experimentos Gigantes em IA: Uma Carta Aberta), foi divulgado ontem pela Future of Life, uma instituição que tem Musk entre seus maiores financiadores.
Os sistemas de IA com inteligência competitiva com a humana podem oferecer riscos profundos para a sociedade e humanidade, como demonstrado por extensiva pesquisa e reconhecido por laboratórios de ponta de IA.
De acordo com a carta, os Princípios de Asilomar (um conjunto de 23 diretrizes listadas em uma conferência ocorrida em 2017 na Califórnia) não estão sendo respeitados: os signatários afirmam que os laboratórios de IA estão “numa corrida fora do controle para desenvolver e empregar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – conseguem compreender, prever e controlar com confiança.”
Essa carta pode ser assinada por qualquer pessoa na página da Future of Life. O número de apoiadores já passa de mil, incluindo nomes como Yuval Noah Harari, o escritor de professor da Hebrew University of Jerusalem; Stuart Russell – professor ciência da computação em Berkeley e diretor do Center for Intelligent Systems; Evan Sharp, o cofundador do Pinterest; Rachel Bronson, presidente do Bulletin of the Atomic Scientists; Jaan Tallinn, cofundador do Skype; e Yoshua Bengio, professor do Departamento de Ciência da Computação da Université de Montréal.
Eu, um simples trabalhador na área de TI, também assinei a carta.