O EU AI Act apertou as regras do uso de IA para as empresas

O EU AI Act apertou as regras do uso de IA para as empresas

Empresas que utilizam o ChatGPT para processar dados sensíveis ou que atuam em setores críticos, como banca, seguros, saúde, educação, direito e administração pública, precisam estar atentas às regulamentações como o EU AI Act e o Regulamento Geral de Proteção de Dados (RGPD). O EU AI Act impõe regras rigorosas sobre o uso de Inteligência Artificial (IA), e o não cumprimento dessas normas pode resultar em multas de até 7% da faturação anual da empresa. Com isso em mente, muitas organizações precisam considerar a migração para licenças Enterprise do ChatGPT para garantir que estão em conformidade com essas regulamentações.

O que é o EU AI Act?

O EU AI Act é uma proposta legislativa da União Europeia, que visa regulamentar a Inteligência Artificial de maneira abrangente. Ele foi criado para garantir que a IA seja usada de forma ética, transparente e segura, mitigando os riscos associados a seu uso indevido. A legislação divide os sistemas de IA em categorias com base no risco potencial que eles apresentam à sociedade, criando um quadro regulatório para monitorar e controlar essas tecnologias de maneira eficaz.

Classificação dos sistemas de IA segundo o EU AI Act

Um dos aspectos centrais da regulamentação é a classificação dos sistemas de IA com base no nível de risco que representam. Esses sistemas são divididos em quatro categorias principais:

  1. Risco inaceitável: Sistemas que representam um risco extremamente alto à segurança ou aos direitos fundamentais dos indivíduos são proibidos. Exemplos incluem tecnologias de reconhecimento facial em massa em espaços públicos, que podem violar a privacidade.
  2. Alto risco: Sistemas que apresentam um risco significativo à segurança ou aos direitos fundamentais, mas que podem ser permitidos sob condições estritas. Exemplos incluem IA para decisão automática em áreas sensíveis, como recrutamento, concessão de crédito ou diagnóstico médico.
  3. Risco limitado: Sistemas com riscos moderados, para os quais a regulamentação exige transparência, mas que não são tão restritivos quanto os de alto risco. Exemplos incluem assistentes virtuais e chatbots.
  4. Risco mínimo ou nenhum: Sistemas de IA considerados de baixo risco, como softwares de recomendação e IA para entretenimento, que são praticamente isentos de regulamentações rigorosas.

Exigências para as empresas sob o EU AI Act

As versões grátis e Plus do ChatGPT podem ser tentadoras, mas elas não atendem aos requisitos necessários para a conformidade com o EU AI Act e o RGPD em cenários críticos e para o processamento de dados sensíveis. O plano Enterprise, por sua vez, foi desenvolvido para garantir que as empresas possam cumprir com as exigências legais e proteger adequadamente as informações confidenciais de seus clientes e usuários.

Aqui estão 4 requisitos essenciais do EU AI Act que o ChatGPT Enterprise atende, mas que as versões Grátis e Plus não cumprem:

Soberania dos Dados

A soberania dos dados é um princípio fundamental tanto do EU AI Act quanto do RGPD. O ChatGPT Enterprise garante que os dados processados pelos seus sistemas permaneçam armazenados exclusivamente em servidores europeus, oferecendo uma proteção adicional para as empresas que operam no contexto regulatório da União Europeia.

Nas versões Grátis e Plus, no entanto, os dados podem ser armazenados em servidores nos EUA ou em outros países fora da União Europeia, o que pode gerar riscos significativos de não conformidade com o RGPD.

Criptografia em Conformidade com o RGPD e SOC 2

Outro aspecto essencial para garantir a conformidade com o RGPD é a proteção dos dados pessoais através de criptografia. O ChatGPT Enterprise utiliza criptografia AES-256 para proteger os dados em repouso e TLS 1.2+ para proteger os dados em trânsito, assegurando que todos os dados processados pelo sistema estejam em conformidade com as exigências do RGPD e as normas de segurança do SOC 2.

As versões Grátis e Plus não oferecem o mesmo nível de segurança, o que pode representar um risco para a proteção de dados sensíveis e um possível descumprimento das normas de segurança exigidas pela legislação europeia.

Data Processing Addendum (DPA)

O Data Processing Addendum (DPA) é um contrato legalmente vinculativo que define as responsabilidades de uma empresa em relação ao tratamento de dados pessoais, conforme estipulado pelo RGPD. No plano Enterprise do ChatGPT, este contrato está disponível para garantir que a empresa cumpra as obrigações legais em relação ao processamento de dados pessoais.

Nas versões Grátis e Plus, no entanto, não há um DPA específico, o que coloca as empresas em uma posição de risco, especialmente se estiverem lidando com dados sensíveis ou realizando decisões automatizadas.Uso de Dados para Treinamento de IA

No plano Enterprise, o ChatGPT garante que as conversas e dados utilizados nunca serão usados para treinar os modelos OpenAI, a não ser que o usuário dê seu consentimento explícito. Isso significa que as empresas podem processar dados sem se preocupar com o uso não autorizado das informações para melhorar os algoritmos de IA.

Porém, nas versões Grátis e Plus, a OpenAI pode reter os dados por até 30 dias e usá-los para treinar seus modelos, o que pode ser uma violação da privacidade e da conformidade com o RGPD, especialmente em setores que lidam com dados sensíveis.

Quando Migrar para o ChatGPT Enterprise é uma Necessidade

Se sua empresa processa dados pessoais, dados sensíveis ou realiza decisões automatizadas utilizando IA, é essencial que migre para o ChatGPT Enterprise. Isso não apenas assegura que você estará em conformidade com o EU AI Act e o RGPD, mas também ajuda a proteger sua empresa contra multas pesadas e danos à reputação.

Embora a migração para o plano Enterprise do ChatGPT possa representar um custo adicional para sua empresa, esse investimento é essencial para garantir que você esteja seguindo as regulamentações e protegendo seus dados e os dados de seus clientes. O custo das multas por não cumprimento das normas pode ser muito mais alto, sem contar os danos à credibilidade da empresa.

Scroll to Top