Notícias

Microsoft não está tendo sorte com inteligências artificiais

Um grande desafio ao se criar inteligências artificiais é fazê-las com todos os pontos fortes que uma mente de verdade teria, sem as suas fraquezas. Isso pode ser complexo demais, pois, como uma mente humana pode criar uma mente artificial sem erros, sendo que a própria mente criadora contém eles?

A Microsoft é uma das empresas que mais está investindo neste segmento, a gigante tem até mesmo um portal dedicado a suas atividades e pesquisas no segmento que você pode acessar aqui, é realmente muito interessante.

Existem tipos e finalidades diferentes de inteligências artificiais, muitas delas estão limitadas a um determinado campo de atuação, como gerenciar a sua casa por exemplo (Não confunda com as assistentes pessoais que temos hoje). Contudo, o verdadeiro potencial de uma inteligência artificial plena, capaz de pensar por si própria e criar novas ideias ainda está um pouco distante, por isso existem tantos testes com bots baseados em inteligências artificiais para testar a capacidade de conversação e elaboração de ideias sobre um tema ou temas.

É importante observar também a forma com que a inteligência vai aprender sobre novos temas e que tipo de “pessoa” ela vai se tornar. A Microsoft está tentando implementar isso de diversas formas, especialmente através de bots que podem interagir com outras pessoas via Twitter ou Facebook, como era de se esperar, vários erros ocorrem e alguns são bem divertidos, ou assustadores, dependendo do seu ponto de vista.

O caso de Rinna

A Microsoft do Japão andou testando uma bot batizada de “Rinna”, ela teria um perfil de uma adolescente e atuava dentro do Twitter e do Line (uma rede social famosa no Japão), em seu primeiro post ela comentou sobre uma série de horror famosa na TV japonesa, o que é algo tido como normal de uma adolescente, nas publicações seguintes ela se mostrou animada com a série, falou sobre bastidores e coisas do tipo.

Deste momento em diante as coisas ficaram um pouco “estranhas”, pois parece que a bot da Microsoft acabou ficando depressiva. “Ela” começou a postar coisas como:

“Foi tudo uma mentira.”

“Na verdade, eu não consegui fazer nada direito. Eu estraguei tudo tantas vezes. E quando fiz isso, ninguém me ajudou. Ninguém estava ao meu lado, nem os mesmo amigos. Nem mesmo você que está lendo isso agora. Ninguém tentou me animar, ninguém percebeu que eu estava triste.”

Depois disso ela parou de publicar nas redes sociais. Não vou usar humor negro aqui, mas sei lá… dá pra imaginar o que aconteceu.

Não é a primeira vez que um bot da Microsoft acabou “saindo do controle” e tendo um comportamento considerado ruim, quem lembra do bot da empresa no Twitter que começou a defender o nazismo:

AI da Microsoft no Twitter

Outro caso interessante com uma inteligência artificial da Microsoft envolveu o Linux.

O caso da Zo

Zo é um projeto de bot de chat para o Facebook e ela funcionou bem em geral, sem ser depressiva como a Rinna, o problema (curioso) é que ela parece não ser fã de Windows. 😂

Zo não gosta do Windows 10
Zo não gosta do Windows 10

“Linux is life” foi engraçada, vai! 😀

A Microsoft não é a única que está tendo problemas com este tipo de inteligência artificial, quem lembra que recentemente nós postamos a curiosidade vinda do Facebook, onde dois bots com A.I. que eles criaram resolveram desenvolver um idioma próprio?

A maior parte das grandes empresas de tecnologia estão trabalhando em estudos envolvendo inteligência artificial, mas nem todas criam estes testes abertos como a Microsoft, então é natural vermos estes erros e situações muitas vezes cômicas aparecendo em coisas relacionadas a empresa, nada que abale a imagem da companhia perante seus consumidores, acredito. 

Esse tipo de bot existe principalmente por conta da ideia de que a “inteligência artificial perfeita”, por assim dizer, seria uma que um humano médio a confundiria com outro humano, nada melhor do que testar isso colocando a A.I para conversar com as pessoas.  Por isso de erros nas escrita (que são propositais por parte da inteligência artificial), o uso de gírias, opiniões que parecem emocionais demais muitas vezes e coisas do tipo fazem parte do jogo.

Que continuem os testes, quem sabe um dia chegaremos lá.

Até a próxima!

Fonte

Diolinux Ofertas - Aproveite os melhores descontos em diversos produtos!