https://valor.globo.com/legislacao/noticia – 29/09/2022.
Por Dora Kaufman e Rony Vainzof.
Para lidar com os riscos da inteligência artificial, a premissa é uma sólida estrutura de governança.
Se big data e inteligência artificial (IA) passaram a ser fundamentais para a competitividade e a perenidade das organizações, eficácia e qualidade precisam caminhar ao lado de princípios como transparência, equidade, prestação de contas e responsabilidade corporativa. Há uma necessidade crescente de incorporar preceitos éticos em produtos e serviços e no relacionamento com os usuários, clientes e consumidores, tanto para mitigar riscos no desenvolvimento ou uso de aplicações imprecisas ou tendenciosas – que acarretam ações discriminatórias ou decisões equivocadas – como para aumentar a transparência e gerar maior confiança nas projeções apuradas pelos sistemas de inteligência artificial.
Ausência de cuidados e diligências éticas na adoção de IA podem não apenas provocar efeitos danosos sobre as pessoas afetadas, mas representar riscos significativos de reputação, regulatórios e legais, pois os sistemas de IA operam em larga escala, e variados, por conta da complexidade da tecnologia. Os riscos normalmente advêm de não identificar e equacionar as consequências, desconhecer a natureza da IA (modelos probabilísticos baseados em extrair padrões nos dados), ou não saber fazer as perguntas certas aos fornecedores de tecnologia.
Para lidar com os riscos da inteligência artificial, a premissa é uma sólida estrutura de governança.
Mas como gerenciar riscos, proteger a reputação, gerar confiança na tecnologia, preservar a competitividade e os resultados financeiros e equilibrar a multidisciplinaridade de aplicações e dos riscos da inteligência artificial? Dentre algumas possibilidades, a diversidade nos conselhos desponta como pré-requisito para uma atuação ética e eficaz, influindo na criação de valor ao agregar múltiplas perspectivas ao diagnóstico e à tomada de decisões estratégicas.
Em outros termos, o avanço do uso de modelos preditivos baseados em IA imputa às organizações novos desafios principiológicos, que extrapolam a conformidade legal. É crítico adequar a cultura corporativa ao inédito ambiente de negócio caracterizado por agilidade, volatilidade e tecnologias complexas, por meio da condução precisa por parte de conselhos corporativos, especialmente os comitês de inovação e/ou comitês de ética.
A Harvard Business Review conceitua a diversidade em demográfica (gênero, raça, orientação sexual, entre outras), experiencial (afinidades, hobbies e habilidades) e cognitiva, neste caso com a inclusão de diferentes estilos de resolução de problemas e perspectivas se envolvem e reagem a situações (não apenas diversidade por gênero ou etnia). A diversidade cognitiva acelera o processo de tomada de decisão: novas perspectivas, novas formas de pensar e uma variedade de habilidades naturalmente ajudam a tomar decisões mais rápidas e sólidas.
Portanto, a diversidade engloba um amplo espectro de formação e repertório. Para identificar oportunidades e responsabilidades, introduzir avaliações de riscos orientadas para a ética nas estruturas de tomada de decisão e governança, criar sistemas de auditoria interna, enfim, estabelecer um ecossistema sólido de ética de dados e de IA, é crucial contemplar nos conselhos de inovação e/ou conselhos de ética perspectivas heterogêneas de pensamento, construindo condições favoráveis para a colaboração entre as ciências exatas e as ciências humanas, como TI/cientistas de dados e tecnologia, segurança da informação, gestores de negócio, juristas/advogados e eticistas, economistas, sociólogos.
A não transparência das decisões automatizadas transcende a opacidade intrínseca à técnica de inteligência artificial que predomina nas implementações atuais (redes neurais profundas, ou deep learning em inglês), está presente igualmente no desenvolvimento, implementação, visualização e interpretação dos resultados dos sistemas, ou seja, em decisões humanas. Ainda, algumas técnicas de mitigação de riscos podem ser legalmente aceitas, mas sob a perspectiva ética retornamos a questão reputacional e de sustentabilidade. Fatalmente, as organizações vão se deparar com o dilema de decidir implantar um sistema de IA em compliance, mas eticamente arriscado.
Nesse sentido, quanto mais diverso o conselho de inovação e/ou conselho de ética, potencialmente melhor e mais eficazes serão as diretrizes de governança no desenvolvimento ou eleição da IA em termos de explicabilidade, privacidade e governança de dados, robustez e segurança, intervenção e fiscalização humana, não discriminação e equidade, prevenção à danos e auditabilidade, mitigando de forma consistente o risco de vieses potencialmente ilícitos na qualidade dos dados, nas variáveis iniciais consideradas e nos parâmetros codificados nos algoritmos de treinamento.
Para lidar com os riscos da IA, a premissa é uma sólida estrutura de governança, ou seja, um conjunto de mecanismos – políticas, processos, responsabilidades específicas – apto a identificar e mitigar os riscos no desenvolvimento, aquisição ou implementação de sistemas de IA seja para otimizar a operação ou para incrementar a interação com seus stakeholders. O conteúdo da governança, logo a cultura de IA, tem que ter adequação com o que a organização considera operacional e eticamente arriscado.
É de vital importância, portanto, contemplar e integrar nos conselhos diferentes culturas, habilidades, formações, gerações, gêneros, pensamentos e experiências, como condição para conciliar responsabilidade corporativa e cultura empresarial transformadora apta a gerar estratégias disruptivas ou incrementais eficazes e eticamente corretas, representando uma vantagem competitiva em relação aos concorrentes menos diversificados.
Dora Kaufman e Rony Vainzof são, respectivamente, professora de inteligência artificial do programa de pós-graduação Tecnologias Inteligentes e Design Digital (TIDD) da PUC-SP; e coordenador da pós-graduação em Direito Digital da Escola Paulista de Direito e sócio do Opice Blum, Bruno e Vainzof Advogados
Este artigo reflete as opiniões do autor, e não do jornal Valor Econômico. O jornal não se responsabiliza e nem pode ser responsabilizado pelas informações acima ou por prejuízos de qualquer natureza em decorrência do uso dessas informações