Interpretabilidade, narrativa e outros grandes desafios para Inteligência Artificial

Os maiores problemas do uso da inteligência artificial de foco específico e em áreas de decisões complexas e críticas, como no mercado de capitais, medicina, etc., já não estão ligados às questões de tecnologia, mas de confiança na sua capacidade e nos seus resultados, principalmente pelo fato de que grande parte das previsões a partir de sistemas, como por exemplo no aprendizado de máquina, ainda ser baseada em modelos tipicamente fechados. Além disso, o risco de falhas, erros e vírus, é sempre uma ameaça a ser considerada.

Acredito que a solução para minimizar esses problemas cada vez mais esteja na evolução das soluções livres e abertas, e, principalmente, que expliquem cada vez mais suas decisões aos gestores. Mas a realidade, e paradoxo, é que as melhores soluções de mercado são justamente o oposto, ou seja, fechadas e visando proteger sua tecnologia e diferencial.

Além disso, devemos investir cada vez mais em tecnologia para interpretar e até mesmo elaborar narrativas sobre os resultados de seu aprendizado. Ou seja, a interpretabilidade é um grande desafio para Inteligência Artificial, principalmente de sistemas de machine learning baseados em aprendizado profundo, com múltiplas camadas, de forma que as decisões, previsões, classificações, etc., feitas pelas máquinas sejam compreendidas e aceitas de forma disseminada no mercado.

____
Rogerio Figurelli – @ 2018-05-16

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s