quinta-feira, 7 de fevereiro de 2019

2. Introdução a IA

Título do Artigo: Inteligência artificial: Os 'eventos estranhos' que fizeram tecnologia pensar que tartaruga era uma arma
Autora: Linda Geddes

Link: https://www.bbc.com/portuguese/vert-fut-47008830


Resumo






Pequenas alterações em imagens podem enganar as redes neurais - os algoritmos de aprendizado da máquina que direcionam grande parte da tecnologia moderna de IA. Os pesquisadores do Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), fizeram testes modificando de leve a textura e a cor de objetos impressos em 3D e conseguiram enganar o computador com cerca de 200 objetos. O mais curioso é que ao fazerem uma tartaruga em 3D, a máquina identificou esse objeto como um rifle. Isso pode impactar diretamente na segurança dos usuários, já que essa tecnologia está sendo cada vez mais utilizada. Acredita-se que parte do problema possa estar relacionado à natureza que as tecnologias existentes foram projetadas a resolver. Uma solução pode ser treinar as redes neurais com exemplos mais desafiadores que os atuais. Um classificador de imagens verdadeiramente robusto replicaria o que "semelhança" significa para um humano. Por mais impressionante que seja as redes neurais profundas de aprendizado, elas ainda não são páreo para o cérebro humano quando se trata de classificar objetos, entender seu ambiente ou lidar com o inesperado. Um pesquisador da Fundação de Oxford para a Neurociência Teorética e sua equipe estão desenvolvendo redes neurais "híbridas", que incorporem as novas informações para ver se elas produzem de forma mais robusta o aprendizado de máquina. O objetivo é, que em 20 anos, ter garantido uma inteligência artificial no mesmo nível que a de ratos. Mas é reconhecido que o desenvolvimento de uma inteligência no nível humano pode levar uma vida inteira - talvez até mais. Enquanto isso, talvez é preciso evitar confiar demais nos robôs, carros e programas alimentados por inteligência artificial aos quais estaremos cada vez mais expostos. 

Nenhum comentário:

Postar um comentário