Cientistas do Instituto de Tecnologia de Massachusetts fizeram uma "inteligência artificial" alimentada com só com descrições de imagens gráficas contendo morte e vídeos de gente morrendo brutalmente.
O MIT, onde "Norman" está
Os pesquisadores dizem que tudo o que o robô sabe foi encontrado nos cantos mais escuros do Reddit, uma rede social em formato de fórum que é bem popular nos EUA. O que eles querem com isso? Acabar com o mundo? Liberar esse robô, chamado "Norman", na intranet do pentágono?
Segundo eles, querem "provar um ponto": a importância das informações que alimentam a I.A.
A equipe de cientistas começou a aplicar testes Rorschach no "Norman". O teste consiste em manchas simétricas que aparentemente não representam nada, e você deve tentar enxergar alguma coisa nessas manchas.
Exemplo de desenho usado em um teste Rorschach
Norman então deveria descrever o que enxergava nas manchas, e todas as suas descrições foram de cenas horrendas, que nem podem ser faladas sem causar horror. Um exemplo bobo que não causa choque - na mancha a seguir, Norman enxergou um homem sendo atropelado. Outro I.A não-psicopata enxergou um bolo de casamento em cima de uma mesa:
Com isso os cientistas querem provar que as "inteligências artificiais" não conseguem transpor aquilo que foi fornecido de "alimentação" por quem a fez. Eles também querem tentar descobrir como evitar que as i.a's absorvam certas coisas e outras sejam rejeitadas, evitando casos como o chat bot que a Microsoft lançou no Twitter, e que acabou se transformando em um i.a racista.
Os cientistas do mesmo lugar também trabalharam na "Máquina de Pesadelos", uma I.A feita pra assustar pessoas. O que eles querem, afinal? Só espero que essas coisas não estejam conectadas à internet.
Fonte: CNN