Fernando Braz, Country Leader da Salesforce Portugal em 2021-2-19

OPINIÃO

Três pilares para construirmos uma Inteligência Artificial de confiança

Através da tecnologia podemos medir o progresso da sociedade, nomeadamente na forma como a utilizamos para melhorar a qualidade de vida e as experiências humanas em larga escala

Três pilares para construirmos uma Inteligência Artificial de confiança

A resposta recai sobre a forma como conseguimos aplicar e democratizar os avanços tecnológicos para o bem da população.

Estamos prestes a começar a quinta revolução industrial, que irá ser definida pelo crescimento da Inteligência Artificial (IA), que tem dado passos de gigante na forma como nos ajuda a completar determinadas tarefas de forma mais rápida e eficiente. Embora ainda haja um enorme potencial para um impacto positivo, temos também a consciência de como a IA poderá ser problemática. Temos visto isto a acontecer na forma como as tecnologias de reconhecimento da voz têm produzido preconceitos contra as vozes femininas, ou como as tecnologias que ajudam a prever crimes, têm aumentado um policiamento discriminatório.

Para construir uma IA com confiança, temos de nos focar em medidas de inclusão e de intenção ética, significando que temos de criar uma IA com medidas que expliquem o impacto e o racional das ações e recomendações. Ganhar confiança deve ser a prioridade, e apenas conseguiremos chegar a esse ponto ao construir uma IA com responsabilidade, transparência e justiça.

À medida que consideramos como é que a IA pode contribuir positivamente para a sociedade, elenco três pilares para a construção de uma IA de confiança que servirão de base para qualquer empresa:

1. Cultivar uma mentalidade baseada na ética

Ética, na IA e numa empresa, significa criar e manter uma cultura de pensamento crítico em todos os colaboradores. Não é possível delegar num só grupo toda a responsabilidade pela identificação de riscos éticos durante o processo de desenvolvimento de modelos de IA. Assim, aquilo a que chamamos ethics-by-design impõe que haja uma diversidade de perspetivas e de muitas culturas, etnias, géneros e áreas profissionais.

Criar um ambiente que acolha inputs de uma audiência maior, pode ajudar as empresas a eliminarem ângulos-mortos que poderão derivar em preconceitos. Ao terem programas de treino que ajudam os colaboradores a colocarem a ética no centro dos processos de trabalho, as empresas podem ainda incentivar melhor as suas equipas a identificarem de forma crítica os potenciais riscos.

2. Aplicar as melhores práticas de forma transparente

Uma coisa é construir uma IA num laboratório, mas algo muito diferente é conseguir prever como a IA se irá comportar no mundo real. Por todo o ciclo de vida do produto, perguntas relacionadas com responsabilidade devem estar no top-of-mind.

A transparência é a chave, e partilhar informação de forma ativa e com as pessoas certas é importante para conseguirmos as tão necessárias perspetivas diversificadas. Seja a analisar a qualidade dos dados, ou a avaliar se as equipas estão efetivamente a remover os preconceitos, irão melhorar os resultados e evitar consequências não intencionais nos algoritmos e até em cenários do mundo real.

Uma forma de fornecer o maior grau de transparência nos modelos de IA e de garantir que o consumidor final tem uma melhor perceção das proteções que existem, é a utilização de tabelas informativas, como os alimentos têm para os valores nutricionais, para descrever a forma como cada modelo deverá ser usado, como métricas de performance e outras considerações éticas. Os utilizadores de IA usam-na com diferentes níveis de conhecimento e experiência, pelo que podemos ter Data Scientists e profissionais de vendas, com conhecimentos diferentes nesta tecnologia, pelo que a transparência ajudará a construir uma maior confiança entre atuais e futuros utilizadores, mas também reguladores e sociedade em geral.

3. Incentivar os utilizadores a tomarem decisões éticas

Enquanto os programadores fornecem as plataformas de IA, os utilizadores são os detentores e responsáveis pelos seus próprios dados. Os programadores deverão dar formação e recursos aos utilizadores, que os ajudarão a identificarem preconceitos, para os mitigar, para que os algoritmos não fiquem demasiado tempo sem serem revistos, perpetuando estereótipos que queremos eliminar. É por isso que se torna importante que as empresas forneçam as ferramentas e tecnologias de forma segura e responsável aos seus clientes e utilizadores.

Infundir ética nos modelos não é um processo simples e linear. Envolve uma mudança cultural e muitos processos, mas equipa os utilizadores com as ferramentas e o conhecimento necessários para utilizarem a tecnologia de forma responsável. Se conseguirmos coletivamente construir sobre estes três pilares, podemos ter a certeza de que a IA será criada e implementada com maior responsabilidade e transparência e, por isso, democratizando os benefícios por toda a sociedade.

Recomendado pelos leitores

Os trabalhos e os dias da Intel, na saída do seu CEO
OPINIÃO

Os trabalhos e os dias da Intel, na saída do seu CEO

LER MAIS

2025 – A Bola de Cristal
OPINIÃO

2025 – A Bola de Cristal

LER MAIS

Cibersegurança: a responsabilidade que a Gestão de Topo não pode adiar
OPINIÃO

Cibersegurança: a responsabilidade que a Gestão de Topo não pode adiar

LER MAIS

IT CHANNEL Nº 113 DEZEMBRO 2024

IT CHANNEL Nº 113 DEZEMBRO 2024

VER EDIÇÕES ANTERIORES

O nosso website usa cookies para garantir uma melhor experiência de utilização.