Cookies
O website necessita de alguns cookies e outros recursos semelhantes para funcionar. Caso o permita, o INESC TEC irá utilizar cookies para recolher dados sobre as suas visitas, contribuindo, assim, para estatísticas agregadas que permitem melhorar o nosso serviço. Ver mais
Aceitar Rejeitar
  • Menu
Conteúdo

Nova ferramenta vai tornar inteligência artificial mais compreensível, transparente e confiável

08 março 2021

Porque é que um médico pode confiar num sistema que lhe indica a altura certa para operar um tumor raro? Como é que um retalhista pode ter a certeza que o algoritmo não favoreceu um fornecedor em detrimento de um concorrente? E o consumidor, não terá o direito de saber como é que os modelos de previsão de consumo de energia decidem as tarifas que paga? O projeto TRUST-AI, coordenado pelo Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC TEC) procura explicar os sistemas de IA, tornando-os mais transparentes e confiáveis.

“À medida que as técnicas de inteligência artificial influenciam cada vez mais as decisões, o seu raciocínio passa por etapas demasiado abstratas e complexas para serem compreendidas pelos utilizadores. Estamos a falar de ‘caixas pretas’, que encontram soluções factualmente excelentes, sem saberem explicar como as conseguem. Isso levanta questões éticas à medida que a IA orienta mais e mais escolhas. Entender o porquê de determinada escolha dá confiança e ajuda a melhorar o processo de decisão. Este projeto vai desenvolver soluções de IA que sejam mais transparentes, justas e explicáveis ​​e, portanto, mais aceitáveis”, afirma Gonçalo Figueira, investigador do INESC TEC e coordenador do projeto.

A abordagem consiste em colocar IA e humanos a trabalhar em conjunto para encontrar melhores soluções (ou seja, modelos que são eficazes, compreensíveis e generalizáveis), através da utilização de modelos simbólicos e algoritmos de aprendizagem explicáveis ​​pelo projeto e pela adoção de um processo de aprendizagem empírico orientado, centrado no ser humano, que integra cognição, aprendizagem de máquina e interação homem-máquina.

O resultado será uma ferramenta transparente, inteligente, confiável e imparcial, aplicada em três casos de estudo: na área da saúde (tratamento de tumores), no retalho online (para selecionar horários de entrega de encomendas) e na energia (para apoiar previsões de procura em edifícios). Mas o projeto pode ser aplicável a outros sectores: bancário, seguros, indústria e administração pública.

Além do INESC TEC (coordenador) o projeto TRUST-AI (Transparent, Reliable and Unbiased Smart Tool for AI) conta com a participação portuguesa da LTPLabs e de mais cinco parceiros, de cinco países diferentes: Tartu Ulikool (Estónia), Institut National De Recherche Eninformatique Et Automatique (França), Stichting Nederlandse Wetenschappelijk Onderzoek Instituten (Holanda), Applied Industrial Technologies (Chipre) e TAZI Bilisim Teknolojileri A.S. (Turquia).

O projeto é financiado em 4.0 milhões de euros pelo programa de investigação e inovação da União Europeia, Horizonte 2020, ao abrigo do acordo nº 952060.

Porto, 8 de março de 2020

Para mais informações:

Eunice Oliveira

Serviço de Comunicação

INESC TEC

Campus da FEUP

Rua Dr Roberto Frias

4200-465 Porto

Portugal

M +351 934 224 331

eunice.i.oliveira@inesctec.pt

www.inesctec.pt