perigos da inteligência artificial - efacont

Mais de 100 empresas de tecnologia na UE comprometeram-se a combater os riscos da Inteligência Artificial, promovendo práticas éticas e seguras.

Mais de metade dos signatários comprometeram-se com medidas adicionais, que vão para além dos requisitos gerais, demonstrando uma preocupação acrescida com a segurança e a ética no desenvolvimento e utilização de tecnologias de Inteligência Artificial. Entre essas medidas, destaca-se a implementação de mecanismos que garantem a supervisão humana contínua sobre os sistemas de IA, assegurando que decisões críticas ou sensíveis não sejam tomadas exclusivamente por máquinas, mas que contem sempre com a intervenção de profissionais qualificados.

Adicionalmente, os signatários comprometem-se a adotar práticas que reduzam os potenciais perigos da inteligência artificial, procurando identificar, avaliar e mitigar quaisquer impactos negativos que possam surgir do seu uso. Outro compromisso essencial é a transparência na rotulagem de conteúdos gerados por IA, com especial destaque para os chamados ‘deepfakes’, ou seja, manipulações digitais sofisticadas que podem alterar radicalmente imagens ou vídeos. Esta rotulagem clara permitirá aos utilizadores distinguir facilmente entre conteúdos autênticos e aqueles criados ou manipulados por IA, o que é fundamental para combater a desinformação e proteger a integridade de dados e informações.

Mais de uma centena de empresas tecnológicas de renome, entre as quais se encontram gigantes da indústria como a Google, Microsoft, OpenAI e Amazon, assumiram este compromisso de forma voluntária, numa ação coordenada que visa enfrentar os riscos crescentes associados ao uso de IA na União Europeia. Estes compromissos surgem no âmbito de um pacto organizado pela Comissão Europeia, que tem como objetivo fomentar a responsabilidade e a segurança no desenvolvimento de tecnologias de IA, mesmo antes da implementação plena da legislação europeia específica para esta área. O envolvimento dessas empresas, tanto a nível de grandes multinacionais como de pequenas e médias empresas, demonstra a amplitude do impacto desta iniciativa e a importância de uma abordagem colaborativa para assegurar que a IA seja desenvolvida e utilizada de maneira responsável em toda a UE.

O Pacto da UE para a IA

Num comunicado divulgado publicamente, o executivo da União Europeia revelou que “mais de uma centena de empresas” se tornaram as primeiras signatárias do Pacto da UE para a Inteligência Artificial (IA), assumindo compromissos voluntários em relação à utilização responsável desta tecnologia. Este grupo diversificado de signatários inclui desde grandes multinacionais com presença global até pequenas e médias empresas localizadas em várias partes da Europa, abrangendo uma vasta gama de setores económicos.

Entre os setores representados encontram-se as tecnologias de informação, que desempenham um papel central no desenvolvimento de soluções digitais; as telecomunicações, fundamentais para a conectividade e a integração da IA nos sistemas de comunicação; a saúde, onde a IA está a ser explorada para melhorar diagnósticos e tratamentos; a banca, que procura usar a IA para otimizar operações e segurança; e a indústria automóvel, que se encontra na vanguarda da automação e dos veículos autónomos. O setor aeronáutico também está representado, com o interesse de aplicar a IA em sistemas de navegação e segurança.

O principal objetivo deste pacto é fornecer um quadro de orientação para a indústria, incentivando as empresas a começarem a alinhar as suas práticas com os princípios estabelecidos pela futura Lei da IA, mesmo antes de esta entrar completamente em vigor. Desta forma, o pacto funciona como uma espécie de prelúdio, permitindo que as empresas comecem a implementar gradualmente as normas e os valores que a nova legislação vai exigir.

Para além de encorajar o cumprimento antecipado das normas legais, este acordo procura fortalecer a colaboração entre o Gabinete de Inteligência Artificial da União Europeia e uma ampla rede de atores relevantes, que incluem não apenas o setor empresarial, mas também organizações da sociedade civil e instituições académicas. Estes grupos desempenham um papel fundamental no desenvolvimento e na regulação da IA, contribuindo para garantir que o progresso tecnológico não venha a comprometer princípios éticos ou direitos fundamentais. Através desta cooperação alargada, o pacto pretende criar uma base sólida para o desenvolvimento responsável da IA na Europa, promovendo um equilíbrio entre a inovação tecnológica e a proteção dos valores e direitos que são centrais para a UE.

Compromissos Voluntários e Objetivos de Combate aos Perigos da Inteligência Artificial

Os compromissos assumidos pelas empresas que subscreveram o Pacto da União Europeia para a Inteligência Artificial incluem uma série de estratégias delineadas com o objetivo de garantir que os sistemas de IA sejam desenvolvidos e aplicados de acordo com as normas estabelecidas pela legislação comunitária. Entre essas estratégias, destaca-se a criação de mecanismos que assegurem o cumprimento rigoroso das normas e regulamentações da UE, particularmente em relação à segurança e à proteção de direitos fundamentais. As empresas comprometem-se também a identificar e mapear com precisão os sistemas de IA que possam ser considerados de alto risco, o que implica uma avaliação contínua das suas possíveis consequências, tanto a nível técnico como ético. Este mapeamento é crucial para garantir que os riscos são antecipadamente reconhecidos e geridos de forma eficiente, de modo a evitar quaisquer danos à sociedade ou aos utilizadores finais. Além disso, um foco importante está na promoção de uma cultura interna de responsabilidade, através da formação dos colaboradores. Esta formação visa aumentar a literacia sobre as questões éticas envolvidas no desenvolvimento e utilização de IA, garantindo que todos os envolvidos na criação e implementação destas tecnologias estejam conscientes das suas responsabilidades e dos potenciais impactos das suas ações.

Para além destes compromissos de base, que representam o mínimo exigido, mais de metade das empresas signatárias decidiram ir mais longe e assumiram compromissos adicionais, que demonstram uma postura proactiva e consciente face aos desafios que a IA levanta. Entre estas medidas adicionais, destacam-se esforços concretos para assegurar uma supervisão humana contínua sobre os sistemas de IA, particularmente em áreas sensíveis, onde a automação total pode apresentar perigos da inteligência artificial . A presença de supervisão humana visa garantir que as decisões mais importantes, especialmente aquelas que podem afetar significativamente os direitos ou o bem-estar de indivíduos, sejam sempre validadas ou complementadas por uma análise crítica feita por pessoas. As empresas também se comprometeram a reforçar os seus processos de mitigação de riscos, criando procedimentos específicos para identificar, analisar e minimizar os possíveis impactos adversos decorrentes do uso de IA. Outro compromisso fundamental é a garantia de transparência na rotulagem de conteúdos gerados por IA, com especial destaque para os ‘deepfakes’, uma técnica avançada de manipulação digital que permite criar vídeos ou imagens que parecem reais, mas que são falsificações. Esta transparência é essencial para prevenir o uso malicioso dessa tecnologia e para manter a confiança dos utilizadores.

Entre as empresas participantes no pacto encontram-se algumas das maiores e mais influentes empresas tecnológicas do mundo, incluindo gigantes como Google, Microsoft, OpenAI, conhecida por ser responsável pelo desenvolvimento do ChatGPT, e a Amazon. O envolvimento de empresas desta dimensão e relevância global demonstra a seriedade e o compromisso com que estas organizações estão a abordar a questão da IA, reconhecendo a necessidade de desenvolver tecnologias que, embora poderosas, sejam também responsáveis e seguras para o conjunto da sociedade.

A Lei da IA na União Europeia

No dia 1 de agosto, a União Europeia deu um passo pioneiro ao implementar a primeira legislação a nível global especificamente direcionada para a regulação da Inteligência Artificial (IA). Este marco legislativo tem como principal objetivo garantir a proteção dos direitos fundamentais dentro do espaço comunitário, assegurando que o desenvolvimento e a utilização de sistemas de IA respeitem princípios éticos e legais estabelecidos pela União Europeia. A legislação visa criar um quadro robusto que regula a aplicação da IA em várias indústrias, promovendo a segurança, a transparência e a responsabilidade no uso desta tecnologia emergente. No entanto, é importante salientar que nem todas as disposições desta nova lei estão imediatamente em vigor, sendo introduzidas de forma faseada ao longo do tempo, de modo a permitir uma adaptação progressiva por parte das empresas e outras entidades envolvidas.

A Lei da IA foi concebida para ser implementada de forma gradual, tendo um período de transição de dois anos. Durante este intervalo, as entidades terão de ajustar os seus sistemas e práticas às novas exigências. A plena aplicação da lei só será obrigatória 24 meses após a sua entrada em vigor, permitindo, assim, que as empresas possam adaptar-se de forma eficaz e responsável aos novos requisitos. Contudo, algumas disposições terão um prazo de implementação mais curto. Por exemplo, a proibição de certas práticas consideradas inaceitáveis, como o uso de IA em sistemas que violem direitos fundamentais ou que sejam considerados extremamente arriscados, será aplicada num período de apenas seis meses após a entrada em vigor da lei. Estas práticas incluem, por exemplo, o uso de IA para manipulação de comportamentos humanos de forma coerciva ou enganosa.

Outras disposições terão prazos diferentes. No que diz respeito aos códigos de conduta, que visam orientar as empresas na adoção de boas práticas no uso da IA, estes entrarão em vigor nove meses após a implementação inicial da lei. Estes códigos servirão como referência para que as organizações possam garantir que as suas operações de IA estão em conformidade com os padrões éticos e legais exigidos pela UE. As regras gerais que regem a utilização de IA, incluindo a forma como os sistemas são governados, serão aplicadas 12 meses após a entrada em vigor da lei, conferindo mais um ano de preparação para as empresas ajustarem os seus processos internos.

Por outro lado, as obrigações mais rigorosas e específicas, que dizem respeito aos sistemas de IA considerados de alto risco, entrarão em vigor 18 meses após a implementação da legislação. Estes sistemas estarão sujeitos a requisitos de conformidade mais exigentes, que visam garantir a segurança e a eficácia dos mesmos. A regulamentação da IA na União Europeia estabelece um equilíbrio entre a promoção da inovação e a proteção dos direitos dos cidadãos, criando um ambiente em que a tecnologia pode prosperar, mas sempre com um olhar atento para as suas implicações éticas e sociais.

A aprovação desta lei foi precedida por longas discussões entre os Estados-Membros e as instituições da UE, refletindo a complexidade e a relevância do tema em questão. Com o advento da IA e o seu crescente impacto em diversas esferas da vida, a União Europeia decidiu agir de forma proativa para assegurar que o desenvolvimento tecnológico aconteça de uma forma que respeite os valores fundamentais da comunidade europeia, garantindo que os direitos dos cidadãos estejam sempre na vanguarda das inovações tecnológicas.

A legislação representa um importante avanço na proteção dos direitos dos cidadãos e na promoção de um desenvolvimento tecnológico responsável. Com a crescente prevalência da IA, é vital que os governos, as empresas e a sociedade civil colaborem para garantir que esta tecnologia seja utilizada de forma ética e benéfica para todos.