fbpx

A Inteligência Artificial Explicável

 


iax.png

xAI é uma tentativa de pesquisadores para que os computadores que resolvem questões complexas também sejam capazes de ensinar as pessoas como resolvê-los

 

Com o rápido crescimento do poder computacional e o gigantesco volume de dados gerados todos os dias, os modelos de Machine Learning e Inteligência Artificial, de forma geral, atingem alto grau de complexidade e performance. Porém, nem sempre os especialistas sabem como eles chegam às suas conclusões preditivas. É aqui que vamos falar de explainable AI – xAI – ou Inteligência Artificial Explicável.

Forest Agostinelli, professor e pesquisador de Ciências da Computação na University of South Carolina, explica que um computador que domina o dobramento de proteínas e também informa aos pesquisadores mais sobre as regras da biologia é muito mais útil do que um computador que dobra proteínas sem explicação.

Portanto, ele e outros pesquisadores de IA buscam desenvolver algoritmos que possam se explicar de uma maneira que os humanos possam entender. 

“Se pudermos fazer isso, acredito que a IA será capaz de descobrir e ensinar às pessoas novos fatos sobre o mundo que ainda não foram descobertos, levando a novas inovações”, conta Agostinelli, em matéria publicada no The Conversation.

 

As diferenças entre IAs explicáveis e não-explicáveis

É aqui que estamos com as ferramentas de IA hoje: elas podem nos dizer coisas, mas não podem nos dizer o porquê dessas coisas.

Ao contrário da IA inexplicável acima, a IA explicável quer fornecer um modelo explicável e uma interface de explicação que eliminam os mistérios de como a IA chegou às suas decisões. Se em uma situação específica de doença, a IA recomenda cirurgia em vez de quimioterapia, por exemplo, o médico consegue entender o porquê, permitindo que, em vez de apenas assinar os papéis do tratamento, possa explicar ao paciente por que a recomendação é fazer a cirurgia.

Em breve, novos sistemas de aprendizado de máquina terão a capacidade de explicar seus fundamentos, caracterizar seus pontos fortes e fracos e transmitir uma compreensão de como se comportarão no futuro.

Aprendendo com Inteligência Artificial

Um campo da IA chamado aprendizado por reforço estuda de que forma os computadores podem aprender com suas próprias experiências. Basicamente, uma IA explora o mundo recebendo feedback positivo ou negativo com base em suas ações.

Por meio do aprendizado por reforço, as IAs estão aprendendo de forma independente a resolver problemas que até mesmo os humanos lutam para descobrir. Isso faz com possamos pensar menos sobre o que a IA pode aprender e mais sobre o que os humanos podem aprender com a IA. Um computador que pode resolver um problema complexo também deve ser capaz de ensinar as pessoas a resolvê-lo.

O Cientista de Dados Milo Utsch explica que existem cinco métricas que são desejáveis em modelos explicáveis:

Justiça: as previsões do modelo contêm algum viés? Elas discriminam algum grupo, ainda que sem querer?

Privacidade: os dados sensíveis utilizados no modelo estão protegidos?

Confiabilidade: pequenas mudanças no input do modelo podem causar grandes mudanças inesperadas no output?

Causalidade: a explicação de uma decisão tomada pelo seu modelo pode ser explicada por uma relação de causalidade que é interpretável por um ser humano?

Confiança: seres humanos confiam no seu modelo? Ele é transparente e capaz de ser entendível e explicável de uma pessoa para outra?

 

O estudo de xAI é necessário para que decisões erradas em modelos possam ser contestadas e corrigidas e para que os modelos possam evoluir junto com a sociedade que eles afetam. Isso significa que todos os modelos de ML precisam ser explicáveis? Não necessariamente. Mas, no caso de modelos de ML que geram um impacto direto na vida das pessoas, a capacidade de explicação se torna muito importante.

 

Explicando IA em um cubo mágico

O grupo de pesquisa que Forest Agostinelli participa no AI Institute da University of South Carolina trabalha com o Cubo de Rubik para tornar a IA explicável.


Cubo de Rubik

Cubo de Rubik

O Cubo de Rubik é, basicamente, um problema de localização de caminhos: Encontre um caminho do ponto A – um cubo de Rubik embaralhado – ao ponto B – um cubo de Rubik resolvido. Os pesquisadores criaram um site onde qualquer pessoa pode ver como o algoritmo de IA resolve o cubo . No entanto, é difícil aprender como resolver o cubo por ali, porque o computador não consegue explicar a lógica por trás de seus passos

A resolução pode ser dividida em algumas grandes etapas – a primeira etapa, por exemplo, pode ser formar uma cruz, enquanto a segunda etapa pode ser colocar as peças de canto no lugar. Embora o cubo de Rubik tenha mais de 40 quintilhões de movimentos possíveis, um guia passo a passo generalizado é muito fácil de lembrar e é aplicável em muitos cenários diferentes.

Abordar um problema dividindo-o em etapas costuma ser a maneira padrão pela qual as pessoas explicam as coisas umas às outras. O cubo de Rubik naturalmente se encaixa nesta estrutura passo a passo, o que dá a oportunidade de explicar o algoritmo com mais facilidade.


Uma abordagem de refinamento passo a passo pode tornar mais fácil para os humanos entender por que as IAs fazem as coisas que fazem. Fonte: https://theconversation.com/how-explainable-artificial-intelligence-can-help-humans-innovate-151737

Uma abordagem de refinamento passo a passo pode tornar mais fácil para os humanos entender por que as IAs fazem as coisas que fazem.

Fonte: https://theconversation.com/how-explainable-artificial-intelligence-can-help-humans-innovate-151737

O processo começa com o uso da própria intuição para definir um plano passo a passo pensado para resolver potencialmente um problema complexo. O algoritmo analisa cada etapa individual e fornece feedback sobre quais etapas são possíveis, quais são impossíveis e como o plano poderia ser melhorado. O humano refina o plano inicial usando o conselho da IA e o processo se repete até que o problema seja resolvido. A esperança é que a pessoa e a IA acabem convergindo para um tipo de entendimento mútuo.

Atualmente, o algoritmo é capaz de considerar um plano humano para resolver o Cubo de Rubik, sugerir melhorias para o plano, reconhecer planos que não funcionam e encontrar alternativas que funcionam. Ao fazer isso, fornece feedback que leva a um plano passo a passo que uma pessoa pode entender. O próximo passo da equipe é construir uma interface intuitiva que permitirá ao algoritmo ensinar às pessoas a resolução do cubo. Depois, o objetivo é generalizar a abordagem para uma ampla gama de problemas de descoberta de caminhos.

“As pessoas são intuitivas de uma forma incomparável a qualquer IA, mas as máquinas são muito melhores em seu poder computacional e rigor algorítmico. Esse vaivém entre o homem e a máquina utiliza as forças de ambos. Acredito que esse tipo de colaboração lançará luz sobre problemas não resolvidos anteriormente em tudo, desde a química à matemática, levando a novas soluções, intuições e inovações que, de outra forma, estariam fora de alcance”, acredita Forest Agostinelli.