Fernando Braz, Country Leader da Salesforce Portugal em 2021-2-19

OPINIÃO

Três pilares para construirmos uma Inteligência Artificial de confiança

Através da tecnologia podemos medir o progresso da sociedade, nomeadamente na forma como a utilizamos para melhorar a qualidade de vida e as experiências humanas em larga escala

Três pilares para construirmos uma Inteligência Artificial de confiança

A resposta recai sobre a forma como conseguimos aplicar e democratizar os avanços tecnológicos para o bem da população.

Estamos prestes a começar a quinta revolução industrial, que irá ser definida pelo crescimento da Inteligência Artificial (IA), que tem dado passos de gigante na forma como nos ajuda a completar determinadas tarefas de forma mais rápida e eficiente. Embora ainda haja um enorme potencial para um impacto positivo, temos também a consciência de como a IA poderá ser problemática. Temos visto isto a acontecer na forma como as tecnologias de reconhecimento da voz têm produzido preconceitos contra as vozes femininas, ou como as tecnologias que ajudam a prever crimes, têm aumentado um policiamento discriminatório.

Para construir uma IA com confiança, temos de nos focar em medidas de inclusão e de intenção ética, significando que temos de criar uma IA com medidas que expliquem o impacto e o racional das ações e recomendações. Ganhar confiança deve ser a prioridade, e apenas conseguiremos chegar a esse ponto ao construir uma IA com responsabilidade, transparência e justiça.

À medida que consideramos como é que a IA pode contribuir positivamente para a sociedade, elenco três pilares para a construção de uma IA de confiança que servirão de base para qualquer empresa:

1. Cultivar uma mentalidade baseada na ética

Ética, na IA e numa empresa, significa criar e manter uma cultura de pensamento crítico em todos os colaboradores. Não é possível delegar num só grupo toda a responsabilidade pela identificação de riscos éticos durante o processo de desenvolvimento de modelos de IA. Assim, aquilo a que chamamos ethics-by-design impõe que haja uma diversidade de perspetivas e de muitas culturas, etnias, géneros e áreas profissionais.

Criar um ambiente que acolha inputs de uma audiência maior, pode ajudar as empresas a eliminarem ângulos-mortos que poderão derivar em preconceitos. Ao terem programas de treino que ajudam os colaboradores a colocarem a ética no centro dos processos de trabalho, as empresas podem ainda incentivar melhor as suas equipas a identificarem de forma crítica os potenciais riscos.

2. Aplicar as melhores práticas de forma transparente

Uma coisa é construir uma IA num laboratório, mas algo muito diferente é conseguir prever como a IA se irá comportar no mundo real. Por todo o ciclo de vida do produto, perguntas relacionadas com responsabilidade devem estar no top-of-mind.

A transparência é a chave, e partilhar informação de forma ativa e com as pessoas certas é importante para conseguirmos as tão necessárias perspetivas diversificadas. Seja a analisar a qualidade dos dados, ou a avaliar se as equipas estão efetivamente a remover os preconceitos, irão melhorar os resultados e evitar consequências não intencionais nos algoritmos e até em cenários do mundo real.

Uma forma de fornecer o maior grau de transparência nos modelos de IA e de garantir que o consumidor final tem uma melhor perceção das proteções que existem, é a utilização de tabelas informativas, como os alimentos têm para os valores nutricionais, para descrever a forma como cada modelo deverá ser usado, como métricas de performance e outras considerações éticas. Os utilizadores de IA usam-na com diferentes níveis de conhecimento e experiência, pelo que podemos ter Data Scientists e profissionais de vendas, com conhecimentos diferentes nesta tecnologia, pelo que a transparência ajudará a construir uma maior confiança entre atuais e futuros utilizadores, mas também reguladores e sociedade em geral.

3. Incentivar os utilizadores a tomarem decisões éticas

Enquanto os programadores fornecem as plataformas de IA, os utilizadores são os detentores e responsáveis pelos seus próprios dados. Os programadores deverão dar formação e recursos aos utilizadores, que os ajudarão a identificarem preconceitos, para os mitigar, para que os algoritmos não fiquem demasiado tempo sem serem revistos, perpetuando estereótipos que queremos eliminar. É por isso que se torna importante que as empresas forneçam as ferramentas e tecnologias de forma segura e responsável aos seus clientes e utilizadores.

Infundir ética nos modelos não é um processo simples e linear. Envolve uma mudança cultural e muitos processos, mas equipa os utilizadores com as ferramentas e o conhecimento necessários para utilizarem a tecnologia de forma responsável. Se conseguirmos coletivamente construir sobre estes três pilares, podemos ter a certeza de que a IA será criada e implementada com maior responsabilidade e transparência e, por isso, democratizando os benefícios por toda a sociedade.

Recomendado pelos leitores

“É para começar ontem!” – Estratégias para superar barreiras de recrutamento IT
OPINIÃO

“É para começar ontem!” – Estratégias para superar barreiras de recrutamento IT

LER MAIS

As sanções americanas e a ascensão dos rivais chineses da Nvidia
OPINIÃO

As sanções americanas e a ascensão dos rivais chineses da Nvidia

LER MAIS

Soberania dos dados europeus
OPINIÃO

Soberania dos dados europeus

LER MAIS

IT CHANNEL Nº 115 MARÇO 2025

IT CHANNEL Nº 115 MARÇO 2025

VER EDIÇÕES ANTERIORES

O nosso website usa cookies para garantir uma melhor experiência de utilização.