MIME-Version: 1.0 Content-Type: multipart/related; boundary="----=_NextPart_01DCA644.BD032880" Este documento é uma Página da Web de Arquivo Único, também conhecido como Arquivo Web. Se você estiver lendo essa mensagem, o seu navegador ou editor não oferece suporte ao Arquivo Web. Baixe um navegador que ofereça suporte ao Arquivo Web. ------=_NextPart_01DCA644.BD032880 Content-Location: file:///C:/2669CA51/2111.htm Content-Transfer-Encoding: quoted-printable Content-Type: text/html; charset="windows-1252"
Implications of using artifi=
cial
intelligence for personal data protection in Brazil
|
Juliana Maria de Vargas Ferreira Frei= re https:=
//orcid.org/0009-0009-6393-551X |
=
Mestranda
em Gestão e Tecnologia em Sistemas Produtivos. Centro Estadual de Educação
Tecnológica Paula Souza (CEETEPS) – Brasil. juliana.freire@cpspos.sp.gov.=
br |
|
Juliane Borsato Beckedorff Pinto https://orcid.org/0009-0005-2389-3598 |
Mestranda em Gestão e Tecnologia em
Sistemas Produtivos. Centro Estadual de Educação Tecnológica Paula Souza
(CEETEPS) – Brasil. juliane.beckedorff@cpspos.sp.gov.br |
|
Eliane Antonio Simões https://orcid.org/0000-0002-0738-2625=
span> |
Doutora em Engenharia Civil. Centro
Estadual de Educação Tecnológica Paula Souza (CEETEPS) – Brasil.
eliane.simoes@cpspos.sp.gov.br |
|
Napoleão
Verardi Galegale https://orcid=
.org/0000-0003-2228-9151 |
Doutor em Controladoria e Contabilidade=
. Centro
Estadual de Educação Tecnológica Paula Souza (CEETEPS) – Brasil. nvg@gale=
gale.com.br |
RESUMO
O uso crescente de inteligência artificial (IA) apresenta desafios
significativos para o tratamento de dados pessoais no Brasil, especialmente=
no
contexto da Lei Geral de Proteção de Dados (LGPD). Este estudo tem como
objetivo identificar as principais implicações decorrentes do uso de IA par=
a a
privacidade e proteção de dados pessoais. A pesquisa proposta adota uma
abordagem exploratória e descritiva, começando com uma revisão da literatura
para construir o referencial teórico sobre inteligência artificial e decisõ=
es
automatizadas. Na sequência, realiza-se uma survey com profissionais=
de
proteção de dados, composta por dez afirmações, que os respondentes avaliar=
am
em escala Likert de cinco pontos. Após a análise dos dados, os principais
tópicos identificados são aprofundados em entrevistas com especialistas nes=
tes
campos. Os resultados apontam que o uso de IA no Brasil levanta preocupaçõe=
s em
relação à proteção de dados pessoais, conforme evidenciado pelos desafios de
transparência e vieses nos algorítmicos identificados neste estudo. A LGPD,
apesar de garantir os direitos de explicação e de revisão das decisões
automatizadas, enfrenta limitações devido à falta de definições claras para
esses processos, o que pode comprometer a aplicação efetiva da legislação. =
Esta
pesquisa contribui para um entendimento mais profundo das implicações do us=
o da
IA para a privacidade e para a governança responsável dessa tecnologia.
Palavras-chave: Inteligência
Artificial; Decisão Automatizada; Proteção de Dados; Privacidade; LGPD.
ABSTRACT
The growing use of artificial
intelligence (AI) presents significant challenges for personal data process=
ing
in Brazil, particularly in light of the General Data Protection Law (LGPD).
This study aims to identify the main implications of AI use for privacy and
data protection. The proposed research adopts an exploratory and descriptive
approach, beginning with a literature review to construct the theoretical
framework for artificial intelligence and automated decision-making.
Subsequently, a survey was conducted with data protection professionals,
comprising ten statements that were evaluated by respondents on a five-point
Likert scale. Following data analysis, the key topics identified were furth=
er
explored through interviews with experts in these fields. The results indic=
ate
that using AI in Brazil raises concerns about personal data protection, as
evidenced by transparency challenges and algorithmic biases highlighted in =
this
study. Although the LGPD guarantees the right to explanation and the right =
to
review automated decisions, it faces limitations due to a lack of clear
definitions for these processes, potentially undermining the effective
application of the legislation. Thus, this research contributes to a deeper
understanding of the implications of AI use for privacy and the responsible
governance of this technology.
Keywords:
Artificial Intelligence; A=
utomated
Decision; Data Protection; Privacy;
LGPD.
Recebido em 05/04/2025. Aprovado em 20/02/2026. Avaliado pelo s=
istema
double blind peer review. Publi=
cado
conforme normas da ABNT.
https://doi.org/10.22279/navus.v18.2111
1 INTRODUÇÃO
A rápida evo= lução tecnológica e a adoção crescente de sistemas de inteligência artificial (IA) têm gerado debates significativos sobre a privacidade e a proteção de dados= . No contexto brasileiro, a vigência da Lei Geral de Proteção de Dados Pessoais = (LGPD) impõe desafios adicionais, pois exige que as organizações garantam a proteç= ão adequada dos dados pessoais em um ambiente cada vez mais digital e automatizado.
A complexida= de aumenta quando se considera o uso de IA porque essa tecnologia apresenta ri= scos como a ausência de clareza no uso de algoritmos (Reis; Furtado, 2022), a possibilidade de discriminação em decisões automatizadas (Pele; Mulholland, 2023) e a dificuldade de assegurar transparência e responsabilidade no processamento de dados pessoais (Almeida; Mendes; Doneda, 2023), mesmo em organizações com políticas de segurança da informação consolidadas (Galegale N.V; Fontes; Galegale, B.P., 2017). Assim, é imperativo compreender as implicações que a IA traz para a proteção de dados pessoais e como estas po= dem ser gerenciadas em conformidade com a LGPD.
Este estudo = tem como objetivo geral identificar as principais implicações decorrentes do uso de inteligência artificial para a privacidade e proteção de dados pessoais no Brasil, norteando-se pela seguinte pergunta de pesquisa: “Quais são as implicações do uso de inteligência artificial à proteção de dados pessoais?= ”.
Tem-se como objetivos específicos: i) apresentar as definições para “inteligência artificial” e “decisões automatizadas”, encontradas na revisão sistemática = da literatura; ii) identificar, na literatura, quais implicações o uso de inteligência artificial traz à privacidade e à proteção de dados e elencar possíveis soluções, em conformidade com a LGPD; iii) verificar o quanto a percepção dos profissionais de proteção de dados brasileiros sobre tais implicações se aproxima ou se distancia dos apontamentos da literatura por = meio de survey e entrevistas semiestruturadas com especialistas.= p>
2 REFERENCIAL T= EÓRICO
É notório o crescimento da presença da IA nas rotinas de trabalho e pessoais, despertan= do grande interesse da sociedade sobre essa tecnologia e suas possíveis aplicações. Principalmente devido à capacidade da IA de transformar grandes volumes de dados desconexos em informações valiosas que, hoje, estão disponíveis não apenas em soluções corporativas, mas também para os usuários comuns (Fernandes; Oliveira, 2021).
Por seu cará= ter transversal, há quem defenda que a IA é “a nova eletricidade”, ou seja, que essa tecnologia tende a influenciar todas as áreas da vida humana de modo similar às transformações que a eletricidade propiciou na virada do século = XIX para o XX (Reis; Furtado, 2022). Contudo, apesar dos contínuos debates sobr= e o tema, ainda não se alcançou um consenso acerca da definição de um conceito = que descreva o que é a IA (Vecchio; Eroud, 2023).
Para este es=
tudo,
realiza-se uma revisão sistemática da literatura para construir um referenc=
ial
teórico sobre IA e decisões automatizadas. A partir dessa revisão,
fundamenta-se a discussão das implicações da IA à privacidade e à proteção =
de
dados, especialmente no uso de IA para o tratamento automatizado de dados
pessoais frente aos requisitos exigidos pela LGPD.
2.1 Inteligência artificial e decisões automatizadas
A inteligênc= ia artificial pode ser descrita como um campo da ciência da computação que desenvolve sistemas para realizar tarefas que exigem inteligência humana, c= omo aprendizado, raciocínio, linguagem, percepção e tomada de decisão. Utilizando-se de algoritmos e modelos matemáticos, a IA processa grandes volumes de dados, identifica padrões e chega a conclusões (Moreira et al= ., 2023). É dessa forma que a máquina consegue repetir alguns aspectos que caracterizam a inteligência, como resolução de problemas, desenvolvimento de estruturas cognitivas e orientação a metas, promovendo uma automação do comportamento inteligente (Vecchio; Eroud, 2023).
A IA engloba= várias abordagens, como aprendizado de máquina, processamento de linguagem natural= e redes neurais, e já tem impacto significativo em setores como saúde, finanç= as e transporte (Moreira et al., 2023). As máquinas têm sido utilizadas p= ara executar as mais diversas tarefas, como avaliação de crédito, estimativa de preços, direção de carros autônomos, diagnóstico de doenças, reconhecimento facial e detecção de objetos (Reis; Furtado, 2022).
Uma das prin= cipais características da IA é a sua capacidade de tomar decisões autônomas, sem a necessidade de interferência ou supervisão humana, permitindo a obtenção de resultados específicos a um custo e escala incomparáveis aos dos humanos (P= ele; Mulholland, 2023). Os efeitos sociais dessas tecnologias, entretanto, não s= ão amplamente conhecidos, gerando tanto esperança quanto receio diante de um território inexplorado e repleto de possibilidades (Reis; Furtado, 2022).= span>
A IA facilit= a o processamento e a interpretação de grandes volumes de dados, trazendo maior agilidade a esses processos – o que não significa, contudo, assertividade. Apesar da intenção de imitar a inteligência humana, e ainda que esse instrumento tecnológico tenha muitas vezes como escopo tomar decisões para e pelos humanos, a IA não possui a sensibilidade humana e pode apresentar resultados revestidos de discriminações que afetam toda a sociedade (Vecchi= o; Eroud, 2023).
Além disso, = os métodos sofisticados de tratamento de dados permitem a coleta e análise de dados pessoais dispersos para reconstruir ações humanas, prever – ou mesmo induzir – comportamentos futuros e formar uma imagem completa do indivíduo a partir de seus vestígios digitais, incluindo características, interesses e = até pensamentos (Reis; Furtado, 2022).
É nesse cont= exto que a IA pode trazer implicações significativas para a privacidade e a proteção= de dados, levantando questões importantes sobre o uso de dados pessoais para treinamento de algoritmos, a transparência dos processos decisórios automatizados e a possibilidade de vieses discriminatórios (Moreira et a= l., 2023). Uma vez que as decisões tomadas pela IA podem afetar significativame= nte a vida das pessoas, é crucial que os sistemas sejam desenvolvidos e implementados de maneira a minimizar danos e maximizar benefícios, adotando modelos de governança como o Privacy by Design, uma abordagem que integra a proteção da privacidade desde o início do desenvolvimento e ao lo= ngo de todo o ciclo de vida dos sistemas de informação (Fernandes; Oliveira, 20= 21).
Na LGPD não =
se
menciona especificamente o uso de IA, mas aborda-se decisão automatizada e
tratamento automatizado de dados pessoais. Sob a ótica da Lei, a decisão
automatizada pode ser entendida como uma decisão tomada “unicamente com bas=
e em
tratamento automatizado” (Brasil, 2018, art. 20), excluindo, portanto, as
decisões exclusivamente humanas e as decisões humanas assistidas por proces=
sos
automatizados (Reis; Furtado, 2022). Assim, é possível ver a decisão
automatizada como um subcampo da IA que se concentra em sistemas capazes de
tomar decisões sem intervenção humana.
2.2 Implicações= para a privacidade e proteção de dados
A privacidade de dados pessoais refere=
-se ao
direito dos indivíduos de controlar como suas informações pessoais são
coletadas, armazenadas, processadas e compartilhadas. No contexto do uso da=
IA,
esse conceito ganha complexidade adicional devido às capacidades avançadas
dessa tecnologia de analisar grandes volumes de dados e extrair insights=
detalhados e precisos sobre os indivíduos. A conformidade com a LGPD e outr=
as
regulamentações de proteção de dados é, portanto, um desafio significativo =
para
o uso da IA.
Uma preocupação recorrente entre
pesquisadores da área de privacidade e proteção de dados é quanto ao uso
indiscriminado e excessivo de dados pessoais para treinar tecnologias de IA,
geralmente sem o conhecimento dos indivíduos titulares dos dados. Nas palav=
ras
de Fernandes e Oliveira (2021, p. 96), “se os algoritmos são o motor da
Inteligência Artificial, os dados pessoais são o combustível que alimenta t=
al
desenvolvimento tecnológico”.
A diversidade dos conjuntos de dados
empregados pode, inclusive, ampliar a capacidade da IA de vincular dados ou
reconhecer padrões, seja expandindo o alcance da coleta de dados ou oferece=
ndo
capacidades computacionais cada vez mais avançadas para trabalhar com os da=
dos
coletados, tornando identificáveis mesmo dados que, a princípio, ou
isoladamente, não seriam considerados pessoais (Pinheiro; Battaglini, 2022)=
.
Embora a LGPD não mencione explicitame=
nte
sistemas de IA como objeto de regulação, a partir do momento que tais
tecnologias utilizam dados pessoais – sejam identificados ou identificáveis=
–
para alcançar os resultados desejados, a Lei é aplicável (Pele; Mulholland,
2023). Não é sem razão que tanto a LGPD como outras legislações de proteção=
de
dados ao redor do mundo, com destaque para o Regulamento Geral de Proteção =
de
Dados da União Europeia, mais conhecido pela sigla em inglês GDPR (Gener=
al
Data Protection Regulation), dedicam uma atenção considerável para o
tratamento automatizado em larga escala de dados pessoais e para a tomada de
decisões automatizadas (Pinheiro; Battaglini, 2022).
É importante destacar que a LGPD não p=
roíbe
a tomada de decisão automatizada, mas dá ao titular de dados, em seu Artigo=
20,
o direito de solicitar uma revisão da decisão tomada (Demetzou; Zanfir-Fort=
una;
Vale, 2023) quando esta é realizada “unicamente com base em tratamento
automatizado de dados pessoais que afetem seus interesses” (Brasil, 2018). =
Aqui
estão incluídas tecnologias destinadas a definir perfis pessoal, profission=
al,
de consumo e de crédito ou aspectos da personalidade dos titulares de dados=
.
Todavia, como não há definição legal p=
ara
decisão automatizada ou tratamento automatizado de dados, abre-se espaço pa=
ra
interpretações diversas quanto às condições para o exercício desse direito.=
Segundo Reis e Furtado (2022), primeir=
o é
preciso confirmar que a decisão automatizada envolve, de fato, dados pessoa=
is –
ou seja, “somente quando os dados de entrada são dados pessoais ou quando o
julgamento diz respeito a alguma pessoa natural (caso em que os dados de sa=
ída
são dados pessoais), é que se pode falar em ‘decisão automatizada’, no dire=
ito
brasileiro” (ibid., p. 9). Em seguida, é preciso entender se há ou n=
ão
intervenção humana na tomada de decisão, pois “se a máquina apenas assiste o
humano, fornecendo-lhe elementos para avaliar as melhores alternativas, cab=
endo
a escolha do resultado ao humano” (ibid., p. 13), não se tem uma dec=
isão
automatizada nos termos da LGPD.
Por fim, os autores destacam que decis=
ões
automatizadas somente poderão ser questionadas ou mesmo anuladas, com base =
em
algum direito do titular do dado, se comprovado “o dano ou o potencial de d=
ano
que ela pode causar a interesse juridicamente protegido” (ibid., p. =
19).
Também é possível que recaia sob o indivíduo o ônus de provar que os efeitos
sofridos em decorrência de tal decisão não são triviais (Demetzou;
Zanfir-Fortuna; Vale, 2023).
A LGPD não menciona que a revisão da d=
ecisão
automatizada deva ser uma revisão humana (ibid.), ponto que poderá s=
er
esclarecido oportunamente pela Autoridade Nacional de Proteção de Dados (AN=
PD),
órgão responsável por zelar pela proteção dos dados pessoais e implementar e
fiscalizar o cumprimento da LGPD no território nacional (Brasil, 2018). De =
modo
geral, a recomendação é que sistemas de IA, em especial os com maior potenc=
ial
de risco aos direitos dos titulares de dados, incluam meios de controle e
supervisão humanos para a gestão adequada desses riscos e da responsabilida=
de
(Almeida; Mendes; Doneda, 2023).
Sistemas de IA diferem dos humanos por=
que
não conseguem compreender as nuances das situações e extrair significados
apropriados delas. Devido às suas limitações em compreender as entradas e
saídas que processam, esses sistemas tornam-se vulneráveis a erros
imprevisíveis (Moreira et al., 2023). Como destacam Vecchio e
Eroud (2023, p. 5), “esse ambiente tecnológico, onde reside a Inteligência
Artificial, foi criado para desempenhar tarefas de forma mais dinâmica e
assertiva, porém é um campo fértil para a ocorrência de situações que envol=
vem
discriminações algorítmicas”.
Muitos são os exemplos de situações
concretas em que tecnologias de IA como visão computacional e reconhecimento
facial levaram a erros de design, falsos positivos, constrangimento e
até mesmo discriminação socioeconômica e racial, especialmente quando
utilizadas para processar dados pessoais de indivíduos não brancos (Pele;
Mulholland, 2023).
Para ser eficaz, a supervisão desses
sistemas deve considerar algumas pré-condições importantes: a compreensão d=
as
capacidades e limitações dos sistemas, o monitoramento contínuo para detect=
ar
anomalias, a conscientização sobre o viés de automação (isto é, a tendência=
a
confiar automaticamente ou excessivamente nos resultados apresentados pela =
IA),
a capacidade de interpretar corretamente os resultados do sistema, a liberd=
ade
para desconsiderar ou reverter decisões automatizadas, e os meios para inte=
rromper
o funcionamento do sistema se necessário (Almeida; Mendes; Doneda, 2023).
Outra determinação da LGPD é com relaç=
ão à
transparência no uso de decisões automatizadas. A Lei impõe, no Parágrafo 1=
º do
Artigo 20, o dever de “fornecer, sempre que solicitadas, informações claras=
e
adequadas a respeito dos critérios e dos procedimentos utilizados [...],
observados os segredos comercial e industrial” (Brasil, 2018). Nos casos em=
que
houver recusa de oferecer tais informações baseada na observância de segredo
comercial e industrial, o Parágrafo 2º do mesmo artigo da LGPD prevê que a =
ANPD
“poderá realizar auditoria para verificação de aspectos discriminatórios em
tratamento automatizado de dados pessoais” (ibid.). Em tais
circunstâncias, conforme procedimento estabelecido pela própria Autoridade
Nacional, o titular do dado deverá primeiro solicitar as informações
diretamente ao controlador e, mediante a recusa ou resposta insatisfatória,=
e
de posse de evidências que comprovem a tentativa de exercício deste direito
perante o controlador, fazer o peticionamento junto à ANPD (Autoridade Naci=
onal
de Proteção de Dados, s.d.).
Equilibrar um potencial conflito entre=
a
necessidade de transparência e a confidencialidade inerente dos segredos
comerciais e industriais pode tornar bastante complexa a observância dos
princípios da proteção de dados no uso e na operação dos sistemas de IA.
Pode-se, inclusive, questionar como seria possível explicar ou revisar uma
decisão automatizada sem ter acesso aos fatores que influenciaram o process=
o de
tomada de decisão ou sem violar o código-fonte da aplicação (Pinheiro;
Battaglini, 2022) e a propriedade industrial (Fernandes; Oliveira, 2021). <=
i>
Essa falta de compreensão leva a uma
suspeita com relação aos algoritmos e ao que poderia acontecer com os dados
gerados durante a utilização desses sistemas, incluindo compartilhamento dos
dados com outros serviços on-line e receios de manipulação política,
restrição à liberdade de informação e até mesmo de hacking de cartõe=
s de
crédito (Agner; Necyk; Renzi, 2020). Nesse sentido, a adoção de medidas
eficazes para garantir a privacidade e a segurança dos dados nos sistemas d=
e IA
se apresenta como um item relevante para a inovação e a competividade na
Indústria 4.0. (Moreira et al., 2023).
Os desafios do uso de dados pessoais p=
ara
treinar a IA são também de inovação tecnológica, uma vez que bancos de dado=
s de
indivíduos reais geralmente carecem de diversidade demográfica suficiente p=
ara
que o algoritmo aprenda a identificar padrões com a eficiência esperada. No
contexto de sistemas de reconhecimento facial, por exemplo, abordar o viés
demográfico e melhorar o desempenho sob condições adversas – como variações=
de
idade, de pose e obstruções na imagem – são aspectos críticos.
Experimentos conduzidos por Melzi e=
t al.
(2024) indicam que a combinação de dados sintéticos e reais em sistemas de
reconhecimento facial tem mostrado desempenho superior em comparação com
sistemas treinados apenas com dados reais. Embora os dados sintéticos sozin=
hos
ainda não possam substituir completamente os dados reais, sua integração com
dados reais ajuda a mitigar algumas limitações existentes na tecnologia de
reconhecimento facial.
Tais desafios têm gerado debates tanto
dentro quanto fora do ambiente acadêmico sobre a importância de regular o u=
so
da IA para além das questões relacionadas à proteção de dados pessoais, ao
mesmo tempo em que se promove a inovação tecnológica e o desenvolvimento
econômico.
Embora a IA proporcione benefícios, is=
so não
pode ocorrer em detrimento dos direitos fundamentais (Pinheiro; Battaglini,
2022). Diante da controvérsia, organizações não governamentais e defensores=
de
direitos humanos advogam pela proibição do uso de tais tecnologias “até que
sejam adotados regulamentos específicos que garantam proteções e seu uso
responsável e transparente” (Silva, 2022, p. 231).
3 METODOLOGIA= span>
Essa pesquis= a tem abordagem exploratória e descritiva. Iniciou-se com uma bibliometria para construção do referencial teórico sobre inteligência artificial e decisões automatizadas e as implicações decorrentes do seu uso para a privacidade e a proteção de dados. Na sequência realizou-se uma revisão sistemática da literatura que subsidiou a elaboração de uma survey, distribuída em grupos on-line de discussão sobre os temas da pesquisa, não sendo, portanto, uma amostra de relevância estatística. Os resultados da Survey fo= ram sintetizados e serviram de fundamentação para a condução de entrevistas individuais com especialistas, onde os principais achados do levantamento f= oram discutidos em maior profundidade.
3.1 Bibliometri= a e Revisão Sistemática da Literatura
Para a bibli= ometria, adaptou-se o modelo de Revisão Sistemática da Literatura (RSL) em três etap= as como proposto por Kitchenham (2004) e representado na Figura 1. A escolha p= or conduzir uma RSL deve-se ao fato de que este método permite identificar, av= aliar e interpretar a pesquisa disponível relevante para uma pergunta de pesquisa específica, um tópico ou um fenômeno de interesse, com o objetivo de aprese= ntar uma avaliação não enviesada do tema. Para tanto, utiliza métodos sistemátic= os e explícitos para gerar um resultado confiável, rigoroso e auditável (ibid= .). Em resumo, a RSL, como método de pesquisa, pode ser descrita como uma forma= de coletar e sintetizar pesquisas anteriores (Tranfield; Denguer; Smart, 2003)= .
Figura
1. Etapas de Revisão Sistemática da Literatura (adaptado de Kitchenham, 200=
4).
Fonte:
Elaborada pelos autores.
A primeira e= tapa da RSL é o planejamento, identificando a necessidade de fazer a revisão e desenvolvendo o seu protocolo. Definiu-se como palavras-chave de busca term= os em inglês relacionados à proteção de dados, à inteligência artificial e ao contexto brasileiro, resultando na string: ("data protection" OR "data privacy" OR "personal data" OR "privacy protection") AND ("artificial intelligence" OR "machine learning") AND (Brazil OR Brazilian OR LGPD), que foi utilizada nas bases de dados Scopus e IEEE. Também foi feito um filtro temporal, selecionando publicações do período entre janeiro de 2018 e abril= de 2024.
Na etapa seg= uinte da RSL, tem-se a condução da revisão em si. Para a seleção dos estudos primári= os, foram avaliados os títulos e resumos das publicações encontradas nas buscas, aplicando como critérios de inclusão: i) estudo aborda temática relacionada= à privacidade e proteção de dados; ii) estudo aborda o contexto brasileiro; e iii) estudo publicado a partir de 2018. Também foram aplicados como critéri= os de exclusão: i) estudo da área da saúde; ii) estudo repetido; e iii) estudo= não relevante para a questão de pesquisa.
Prosseguiu-s= e com a avaliação qualitativa dos estudos, extraindo deles dados sobre as implicaçõ= es do uso de IA à privacidade e proteção de dados. Estudos que não traziam resultados relevantes para a questão de pesquisa ou que não estavam disponí= veis na íntegra foram desconsiderados.
A partir da aplicação do protocolo descrito, foram encontrados 148 artigos nas bases de dados selecionadas, sendo 114 artigos da base IEEE e 34 artigos da base Sco= pus. A aplicação dos critérios de inclusão e exclusão reduziu este número para 28 artigos. Após a análise das evidências, foram selecionados 12 trabalhos para compor o rol final de estudos primários (Figura 2).
Figura
2. Seleção de estudos primários com a aplicação do protocolo da RSL.
Fonte: Elaborada pelos autores.= p>
No Quadro 1, apresenta-se os dados obtidos a partir da análise bibliométrica.
Quadro
1. Análise bibliométrica.
|
Referência |
Área do conhecimento |
Keywords |
País dos autores |
Idioma do artigo |
|
Agner, Necyk e Renzi (2020) |
Ciência da Computação |
User Experience; UX Design; Recommendation Systems |
Brasil |
Inglês |
|
Almeida, Mendes e Doneda (2023) |
Ciência da Computação |
Regulation; Safety; Internet; Artificial Intelligence |
Brasil (2), Alemanha (1) |
Inglês |
|
Demetzou, Zanfir-Fortuna e Vale (2023)= |
Direito |
Automated Decision-Making; GDPR; LatAm=
; Data
Protection; Case-Law |
Estados Unidos da América |
Inglês |
|
Fernandes e Oliveira (2021) |
Direito |
LGPD; Judiciary Branch; Automated Decisions; Risk Society; Artific=
ial
Intelligence in the Judiciary; Brazilian Artificial Intelligence |
Brasil |
Português |
|
Masseno (2020) |
Direito |
Artificial Intelligence; Brazil; Data Protection; Dignity of the H=
uman
Person; OECD; Principles |
Brasil |
Português |
|
Melzi et al. (2024) |
Ciência da Computação |
Computer Science; Computer Vision; Pattern Recognition |
Diversos |
Inglês |
|
Moreira et al. (2023) |
Engenharia |
Artificial Intelligence; Industry 4.0; Challenges; Emerging Econom=
y |
Brasil |
Inglês |
|
Pele e Mulholland (2023) |
Direito |
Artificial
Intelligence; Facial Recognition; Brazil; Europe; Ne=
cropolitics |
Brasil |
Inglês |
|
Pinheiro e Battaglini (2022) |
Direito |
Artificial Intelligence; Data Protection; GDPR; LGPD; AI Regulatio= n |
Brasil |
Inglês |
|
Reis e Furtado (2022) |
Direito |
Automated Decisions; Artificial Intelligence; Data Processing;
Personal Data; General Data Protection Law |
Brasil |
Português |
|
Silva (2022) |
Direito |
Artificial Intelligence; Facial Recognition; Sensitive Personal Da=
ta;
Trans and Non-Binary Gender Identity; Human Rights; Regulation |
Portugal |
Português |
|
Vecchio e Eroud (2023)= p> |
Direito |
Algorithm; Artificial Intelligence; LGPD |
Brasil |
Português |
Fonte: Elabo= rado pelos autores.
Essa plurali= dade destaca a relevância e a complexidade das questões abordadas, que englobam desafios técnicos, éticos e legais relacionados à inteligência artificial e= à proteção de dados pessoais.
Para organiz= ar e estruturar os dados obtidos na RSL, foi elaborado o Quadro 2 que sintetiza = os principais resultados e conclusões de cada estudo em relação às implicações= do uso de inteligência artificial na privacidade e proteção de dados pessoais.=
Quadro 2. Sí= ntese da Revisão Sistemática da Literatura.
|
Implicações que o uso de inteligência artificial traz à privacidade e proteção de dados pessoais |
Aplicabilidade da LGPD em sistemas de = IA |
Demetzou, Zanfir-Fortuna e Vale (2023)= Masseno (2020) Pele e Mulholland (2023) Pinheiro e Battaglini (2022) Reis e Furtado (2022) |
|
Ausência de regulamentação específica = sobre o uso de IA |
Almeida, Mendes e Doneda (2023)= Demetzou, Zanfir-Fortuna e Vale (2023)= Fernandes e Oliveira (2021) Pele e Mulholland (2023) Pinheiro e Battaglini (2022) Silva (2022) |
|
|
Dependência de bancos de dados reais p= ara treinar a IA |
Melzi et al. (2024) Silva (2022) |
|
|
Dificuldade de compreensão e desconfia= nça dos usuários |
Agner, Necyk e Renzi (2020) Fernandes e Oliveira (2021) Moreira et al. (2023) |
|
|
Direito de revisão de decisões automat= izadas |
Demetzou, Zanfir-Fortuna e Vale (2023)= Reis e Furtado (2022) |
|
|
Erros e vulnerabilidades causados por = vieses algorítmicos |
Moreira et al. (2023) Pele e Mulholland (2023) Silva (2022) Vecchio e Eroud (2023) |
|
|
Necessidade de supervisão dos sistemas= de IA |
Almeida, Mendes e Doneda (2023)= Demetzou, Zanfir-Fortuna e Vale (2023)= Masseno (2020) Pinheiro e Battaglini (2022) |
|
|
Transparência no uso de decisões automatizadas |
Agner, Necyk e Renzi (2020) Almeida, Mendes e Doneda (2023)= Fernandes e Oliveira (2021) Pinheiro e Battaglini (2022) |
|
|
Uso indiscriminado de dados pessoais p= ara treinar a IA |
Fernandes e Oliveira (2021) Pele e Mulholland (2023) Pinheiro e Battaglini (2022) |
Fonte: Elabo= rado pelos autores.
Os dados ext= raídos fundamentaram a elaboração do referencial teórico deste estudo e de uma = survey com profissionais brasileiros da área de privacidade e proteção de dados.= span>
3.2 Survey= i>
Conduziu-se = uma survey com o objetivo de buscar as opiniões de profissionais brasileiros que atuam= com privacidade e proteção de dados e inteligência artificial sobre as implicaç= ões identificadas na literatura.
As propostas afirmativas da survey foram postadas na plataforma Google Forms, essas construídas a partir dos dados sintetizados dos estudos primários da RSL. No Quadro 3, apresenta-se as dez afirmações incluídas na survey, com suas respectivas referências.
Quadro 3. Propostas afirmativas da su= rvey com referências bibliográficas.
|
Afirm= ação |
Refer= ência |
|
1. O uso de inteligência artificial deve ser regulado por meio de legislação específica a fim de proteger direitos fundamentais, inclusive a privacida= de e a proteção de dados pessoais. |
Almeida, Mendes e Doneda (2023); Demetzou, Zanfir-Fortuna e Vale (2023); Fernandes= e Oliveira (2021); Pele e Mulholland (2023); Pinheiro e Battaglini (2022)= span> |
|
2. A definição de "decisão automatizada" não é clara e deveria ser regulamentada pela ANPD (Autoridade Nacional de Proteção de Dados). |
Demetzou, Zanfir-Fortuna e Vale (2023); Reis e Furtado (2022) |
|
3. Sistemas de inteligência artificial devem informar aos usuários os critér= ios e ações considerados pelo algoritmo para tomada de decisão de forma a ate= nder ao princípio da transparência e outros requisitos da LGPD. |
Agner, Necyk e Renzi (2020); Almeida, Mendes e Doneda (2023); Pinheiro e Battagl= ini (2022) |
|
4. Dar transparência para os critérios utilizados em decisões automatizadas aumenta a confiança e a lealdade dos clientes. |
Agner, Necyk e Renzi (2020); Moreira et al. (2023)<= /span> |
|
5. Um dos principais critérios para solicitar a revisão ou mesmo anulação de= uma decisão automatizada deve ser o dano ou potencial dano que esta decisão p= ode causar ao titular do dado. |
Demetzou, Zanfir-Fortuna e Vale (2023); Reis e Furtado (2022) |
|
6. Para garantir o exercício de direitos pelos titulares de dados, as revisõ= es de decisões automatizadas devem ser realizadas com intervenção humana. |
Almeida, Mendes e Doneda (2023); Demetzou, Zanfir-Fortuna e Vale (2023); Masseno (2020) |
|
7. A revisão de decisões automatizadas pode ser impossibilitada pela opacida= de dos algoritmos e modelos de inteligência artificial – em alguns casos, é impossível, mesmo para o criador da aplicação, explicar como determinado resultado foi obtido. |
Agner, Necyk e Renzi (2020); Fernandes e Oliveira (2021); Reis e Furtado (2022); Vecchio e Eroud (2023) |
|
8. Diante dos riscos à privacidade e proteção de dados, o uso de tecnologias= com decisões automatizadas; como as de reconhecimento facial, deve ser proibi= do até que sejam adotados regulamentos específicos que garantam seu uso responsável e transparente. |
Pele e Mulholland (2023); = Silva (2022) |
|
9. Treinar tecnologias como as de reconhecimento facial a partir de bancos de dados sintéticos (artificiais) em vez de usar dados de pessoas reais é uma forma eficiente de reduzir o risco à privacidade e proteção de dados. |
Melzi et al. (2024)= |
|
10. Para que as empresas brasileiras possam adotar soluções de inteligência artificial que tragam maior competividade e inovação aos seus negócios; é essencial que haja um investimento em medidas de proteção de dados e segurança da informação. |
Moreira et al. (202= 3) |
Fonte: Elaborado pelos autores.= p>
Cada uma das afirmações foi avaliada pelos respondentes em uma escala Likert de cinco po= ntos (“Concordo totalmente”, “Concordo parcialmente”, “Não concordo, nem discord= o”, “Discordo parcialmente” e “Discordo totalmente”) e a opção “Prefiro não responder”. A survey recebeu respostas no período de 27 de maio a 5 = de junho de 2024 e foi distribuída em grupos on-line de discussão sobre privacidade e proteção de dados, direito digital e inteligência artificial,= em aplicativo de mensageria (WhatsApp) e plataforma de mídias sociais (LinkedI= n).
Tal estratég= ia de divulgação foi adotada propositalmente, para compor uma amostragem intencio= nal homogênea, concentrando-se no subgrupo específico de profissionais brasilei= ros que atuam com temas correlatos ao da pesquisa e que, portanto, possuem fami= liaridade com as discussões propostas. Como forma de qualificar a amostra, foram incluídas três perguntas sobre o perfil dos respondentes, relacionadas à sua experiência profissional e formação acadêmica na área de privacidade e prot= eção de dados. Aqueles que indicaram não possuir familiaridade com o assunto em discussão não prosseguiram para a página do questionário, tendo suas respos= tas desconsideradas.
3.3 Entrevistas= com especialistas
Como instrum= ento de pesquisa para esta etapa, foi escolhida uma estrutura semiestruturada com as sete perguntas listadas abaixo:
1.&n= bsp; Neste momento, está em discussão a regulamentação sobre o uso da Inteligência Artificial no Brasil. Quais são os principais desafios e benefícios que voc= ê vê na criação de uma legislação específica para regulamentar o uso da IA no que tange à proteção de direitos fundamentais?
2.&n= bsp; Como essa legislação poderia ser implementada de forma eficaz?
3.&n= bsp; Quais são os riscos e benefícios de proibir o uso dessas tecnologias até que regulamentações específicas sejam estabelecidas?
4.&n= bsp; Você acredita que a definição de 'decisão automatizada' precisa ser mais clara e regulamentada pela ANPD?
5.&n= bsp; Que medidas práticas podem ser tomadas pelas empresas para aumentar a transparê= ncia nos critérios e ações dos algoritmos de inteligência artificial?
6.&n= bsp; Na sua opinião, qual é o papel da intervenção humana na revisão de decisões automatizadas? Além da intervenção humana, quais soluções podem tornar a revisão de decisões automatizadas mais eficiente e justa, considerando a complexidade e opacidade dos algoritmos de IA e mitigando os riscos ao titu= lar do dado?
7.&n= bsp; Na sua visão, quais são as vantagens e desvantagens de utilizar dados sintétic= os para treinar tecnologias de IA em comparação com dados reais?
As entrevist=
as
tiveram duração aproximada de 60 minutos cada e foram conduzidas on-line=
,
no período entre 13 e 21 de junho de 2024, pela plataforma Microsoft Teams.=
O
Quadro 4 apresenta um breve perfil dos quatro entrevistados, que foram
escolhidos por conveniência. Em comum, todos possuem, pelo menos, uma
pós-graduação e atuam como docentes em cursos livres, de graduação e/ou
pós-graduação em áreas relacionadas ao tema desta pesquisa.
Quadro 4. Perfis dos entrevistados.
|
Entre= vistado |
Atuaç= ão profissional |
Área<= /span> do conhecimento |
|
1 |
Pesquisadora dos impactos éticos e sociais da inteligência artificial |
Engenharia |
|
2 |
Consultor em segurança da informação, privacidade e proteção de dados |
Tecnologia da Informação |
|
3 |
Advogada com atuação em direito digital, proteção de dados e inteligência artifici= al no setor privado |
Direito |
|
4 |
Advogado integrante da Comissão Especial de Inteligência Artificial do Conselho Federal da Ordem dos Advogados do Brasil (OAB) |
Direito |
Fonte: Elaborado pelos autores.= p>
As entrevist= as foram transcritas e os dados obtidos foram tratados de acordo com o método Anális= e de Conteúdo. Alguns entrevistados optaram, de iniciativa própria, por compleme= ntar suas respostas com informações em texto e áudio. Esses comentários adiciona= is também foram incluídos nos documentos para análise.
Para este es= tudo, seguiu-se as etapas da técnica Análise de Conteúdo proposta por Bardin (201= 1 apud Silva; Fossá, 2015), organizadas em três fases: 1, pré-análise; 2, exploração do material; e 3, tratamento dos resultados. Estas fases e suas respectivas etapas estão representadas na Figura 3, abaixo.
Figura 3. Etapas da Análise de Conteúdo (adaptado de Silva; Fossá, 2015).
Fonte: Elaborada pelos autores.= p>
Na etapa de exploração do material, com o auxílio do software ATLAS.ti, realizou= -se a codificação e a classificação dos conteúdos. Os textos das entrevistas fo= ram recortados em unidades de registro, com a identificação das palavras-chave = mais relevantes para a análise (Tabela 1).
Tabela 1. Volume de citações por palavra= -chave e por entrevistado.
|
Palavras-chave |
Ent. 1 |
Ent. 2 |
Ent. 3 |
Ent. 4 |
|
ANPD |
1 |
2 |
3 |
1 |
|
Dados sintéticos |
1 |
2 |
10 |
3 |
|
Decisão(ões) automatizada(s) |
3 |
4 |
21 |
16 |
|
Governança |
3 |
1 |
6 |
0 |
|
Inteligência artificial ou IA |
3 |
4 |
40 |
23 |
|
Proibição ou proibir |
1 |
5 |
1 |
1 |
|
Regulamentação |
2 |
3 |
5 |
6 |
|
Transparência |
0 |
1 |
8 |
12 |
Fonte: Elaborada pelos autores.= p>
As unidades = de registro foram, então, agrupadas progressivamente em categorias temáticas iniciais, intermediárias e finais para facilitar as inferências. O Quadro 5, abaixo, apresenta de forma simplificada essa construção.
Quadro 5. Categorias temáticas de anális= e.
|
Intermediárias |
Finais |
|
|
Regulamentação do uso de IA |
Leis e regulamentos |
|
|
2.= Desafios de regular a IA |
||
|
3.= Implementação eficaz da regulamentação |
Aplicabilidade da regulamentação |
|
|
4.= Proibição do uso de novas tecnologias |
||
|
5.= Definição de decisão automatizada |
Decisões automatizadas |
Governança e responsabilidade corporativa |
|
6.= Transparência em decisões automatizadas |
||
|
7.= Revisão de decisões automatizadas |
||
|
8.= Vantagens do uso de dados sintéticos |
Uso de dados sintéticos |
|
|
9.= Desvantagens do uso de dados sintéticos |
Fonte: Elaborada pelos autores.= p>
Por fim, na = etapa de tratamento dos resultados, os conteúdos selecionados a partir do material coletado nas entrevistas foram sintetizados e interpretados para a discussão dos principais temas e significados emergentes. Esses achados são apresenta= dos na próxima seção deste artigo.
4 RESULTADOS E DISCUSSÃO
Os achados d= escritos no referencial teórico e obtidos por meio da RSL subsidiaram a elaboração de uma survey, cujos resultados são apresentados nesta seção. = p>
A survey<= /i> foi preenchida, de forma anônima e on-line, por 40 respondentes. Destes,= 65% (28) afirmam trabalhar com privacidade e proteção de dados há mais de três = anos e 15% (6) há menos de três anos. Os 20% (8) restantes, apesar de não trabalharem diretamente com o tema, declaram ter interesse e familiaridade = com o assunto.
Quanto à ded= icação profissional à área de privacidade e proteção de dados atualmente, 35% (14) declaram ser essa sua ocupação principal hoje, 37,5% (15) afirmam correspon= der a uma parte significativa das atividades que desenvolvem rotineiramente, ap= esar de não ser a principal, e 15% (8) realizam atividades ligadas ao tema pelo menos uma vez ao mês.
Com relação = ao conhecimento acadêmico em privacidade e proteção de dados, a maioria dos respondentes (55%, 22) afirma ter feito cursos livres e/ou de extensão universitária, 32,5% (13) possuem pós-graduação lato sensu, 12,5% (5) pós-graduação stricto sensu e 32,5% (13) certificações internacionai= s. Os ser demais se declaram autodidatas.
Em seguida, = os respondentes emitiram suas opiniões sobre as implicações decorrentes do uso= da IA para a área de privacidade e proteção de dados, utilizando uma escala Li= kert de cinco pontos para concordar ou discordar das dez afirmações elaboradas a partir dos resultados da RSL (Tabela 2).
Tabela 2. Respostas às afirmações do questionário da survey.
|
Afirm= ação |
CT |
CP |
NN |
DP |
DT |
NR |
|
O uso de inteligência artificial deve ser regulado por meio de legislação específica a fim de proteger direitos fundamentais, inclusive a privacida= de e a proteção de dados pessoais. |
85% (34) |
7,5% (3) |
2,5% (1) |
5% (2) |
- |
- |
|
A definição de "decisão automatizada" não é clara e deveria ser regulamentada pela ANPD (Autoridade Nacional de Proteção de Dados). |
70% (28) |
20% (8) |
5% (2) |
2,5% (1) |
- |
2,5% (1) |
|
Sistemas de inteligência artificial devem informar aos usuários os critérios e açõ= es considerados pelo algoritmo para tomada de decisão de forma a atender ao princípio da transparência e outros requisitos da LGPD. |
80% (32) |
17,5% (7) |
2,5% (1) |
- |
- |
- |
|
Dar transparência para os critérios utilizados em decisões automatizadas aume= nta a confiança e a lealdade dos clientes. |
90% (36) |
10% (4) |
- |
- |
- |
- |
|
Um dos principais critérios para solicitar a revisão ou mesmo anulação de uma decisão automatizada deve ser o dano ou potencial dano que esta decisão p= ode causar ao titular do dado. |
77,5% (31) |
20% (8) |
- |
- |
- |
2,5% (1) |
|
Para garantir o exercício de direitos pelos titulares de dados, as revisões de decisões automatizadas devem ser realizadas com intervenção humana. |
77,5% (31) |
12,5% (5) |
7,5% (3) |
- |
2,5% (1) |
- |
|
A revisão de decisões automatizadas pode ser impossibilitada pela opacidade= dos algoritmos e modelos de inteligência artificial – em alguns casos, é impossível, mesmo para o criador da aplicação, explicar como determinado resultado foi obtido. |
30% (12) |
47,5% (19) |
7,5% (3) |
10% (4) |
2,5% (1) |
2,5% (1) |
|
Diante dos riscos à privacidade e proteção de dados, o uso de tecnologias com decisões automatizadas, como as de reconhecimento facial, deve ser proibi= do até que sejam adotados regulamentos específicos que garantam seu uso responsável e transparente. |
27,5% (11) |
20% (8) |
10% (4) |
32,5% (13) |
7,5% (3) |
2,5% (1) |
|
Treinar tecnologias como as de reconhecimento facial a partir de bancos de dados sintéticos (artificiais) em vez de usar dados de pessoas reais é uma forma eficiente de reduzir o risco à privacidade e proteção de dados. |
15% (6) |
37,5% (15) |
15% (6) |
25% (10) |
7,5% (3) |
- |
|
Para que as empresas brasileiras possam adotar soluções de inteligência artifi= cial que tragam maior competividade e inovação aos seus negócios, é essencial = que haja um investimento em medidas de proteção de dados e segurança da informação. |
95% (38) |
5% (2) |
- |
- |
- |
- |
Sendo CT: concordo totalmente; CP: conco= rdo parcialmente; NN: não concordo nem discordo; DP: discordo parcialmente; DT: discordo totalmente; NR: prefiro não responder. Fonte: Elaborada pelos auto= res.
Os resultado= s do levantamento destacam a concordância entre os profissionais sobre a necessi= dade de regulamentação específica e transparência no uso de IA, assim como a importância da intervenção humana na revisão de decisões automatizadas, enquanto as opiniões estão mais divididas em relação ao uso de dados sintét= icos e à proibição de tais tecnologias sem regulamentação adequada.
Destaca-se ainda que 95% (38) concordam
totalmente e os 5% (2) restantes concordam parcialmente que, para que as
empresas brasileiras adotem soluções de IA que tragam maior competitividade=
e
inovação, é essencial haver um investimento em medidas de proteção de dados=
e
segurança da informação.
4.1 Discussão c= om especialistas
Realizou-se = quatro entrevistas individuais e semiestruturadas com especialistas nesses temas. = Em seguida, as respostas foram organizadas e distribuídas em nove categorias iniciais: 1, benefícios de regular a IA; 2, desafios de regular a IA; 3, implementação eficaz da regulamentação; 4, proibição do uso de novas tecnologias; 5, definição de decisão automatizada; 6, transparência em deci= sões automatizadas; 7, revisão de decisões automatizadas; 8, vantagens do uso de dados sintéticos; e 9, desvantagens do uso de dados sintéticos. Essas categorias trazem as primeiras impressões acerca do objeto de pesquisa a pa= rtir de trechos selecionados das falas dos entrevistados.
Conforme os = temas se entrelaçam, eles foram agrupados em quatro categorias intermediárias – regulamentação do uso de IA, aplicabilidade da regulamentação, decisões automatizadas e uso de dados sintéticos – que, por fim, suportam as duas categorias finais: leis e regulamentos, e governança e responsabilidade corporativa.
4.1.1 Categorias iniciais
A primeira c= ategoria inicial diz respeito aos benefícios de regular a IA. Os entrevistados concordam que a criação de uma legislação específica proporcionará não apen= as a proteção de direitos como segurança jurídica e, consequentemente, estímulo à inovação.
Um
dos principais benefícios de uma legislação específica para IA é a criação =
de
um marco legal que oferece segurança jurídica. (entrevistado 4).
[...]
quando a gente fala de regulação, fala de segurança jurídica e de assegurar=
, de
fato, direitos e garantias fundamentais. (entrevistado 3).
Já a segunda categoria inicial aborda os desafios de regular a IA. Os especialist= as apontam, como principal obstáculo, a falta de clareza do que, de fato, será regulado quando se fala em inteligência artificial, uma vez que a tecnologia está em constante evolução.
Quando se falava de LGPD, havia clareza do q=
ue é
privacidade. [...] Na parte de inteligência artificial, não vejo essa clare=
za.
(entrevistado 2).
A regulação da inteligência artificial, fala=
ndo no
guarda-chuva como um todo, tem consequências jurídicas relevantes.
(entrevistado 3).
A terceira c= ategoria inicial trata da implementação eficaz da regulamentação, o que depen= de não só da sua aplicação prática, ou seja, se ela será mais generalizada ou setorizada, mas também de medidas de fiscalização para garantir o equilíbrio entre a proteção de direitos individuais e a inovação e o desenvolvimento econômico.
Não é trivial regulamentar uma tecnologia da
natureza da inteligência artificial, haja visto os processos mundo afora. N=
ão
basta definir o escopo da lei, talvez o desafio maior seja como implementar=
e
fiscalizar a obediência da lei. (entrevistado 1).
[...] nós temos que proteger o trabalhador, =
nós
temos que proteger alguns grupos que serão, ou já estão sendo impactados
diretamente. [...] Os textos que estão sendo discutidos me confundem nesse
objetivo (entrevistado 3).
Na quarta ca= tegoria inicial, discutiu-se sobre a proibição do uso de novas tecnologias, = pelo menos até a criação de regulamentações específicas, estratégia que a maioria dos entrevistados não considera viável a esta altura.
Não tem como proibir o uso de tecnologias que
estão amplamente disponíveis e que, efetivamente, trazem extraordinários
benefícios (entrevistado 1).
Em meados de 1800, alguém proibiu a Revolução
Industrial? (entrevistado 2).
Eu não sou a favor da vedação, pura e
simplesmente, por não haver uma regulação (entrevistado 3).
A definiç= ão de decisão automatizada é o tema da quinta categoria inicial. Os entrevist= ados concordam que é preciso ter uma definição clara do que são as decisões automatizadas para que os direitos dos indivíduos sejam devidamente regulamentados. Contudo, há divergências quanto a quem caberia formalizar t= al definição.
A ANPD deve desenvolver diretrizes claras que
orientem as organizações sobre como identificar e gerenciar decisões
automatizadas [...] (entrevistado 4).
Não creio que a ANPD tenha competência para
legislar sobre o desenvolvimento e uso da IA, de qualquer forma, a expressão
“decisão automatizada” com o uso de IA precisa sim ser melhor compreendida
(entrevistado 1).
A agenda regulatória da ANPD de 2023-2024 te=
m o
tema de IA mais geral na pauta [...] (entrevistado 3).
Na sexta cat= egoria inicial, reflexões sobre a necessidade de transparência em decisões automatizadas. Um dos entrevistados confirma que as empresas não estão atendendo a esse requisito em suas soluções, alegando ser uma forma de prot= eger segredos comercial e industrial.
A maioria dos fabricantes e parceiros que te=
mos
hoje trabalha com alguma solução que tem inteligência artificial, mas não t=
emos
a visão da abrangência disso. Isso é uma caixa-preta. Faz parte da regra de
negócio do produto que é fornecido [...] você não sabe exatamente o que tem
ali. É inteligência artificial (entrevistado 2).
Em resposta = a esse aparente conflito, algumas medidas práticas foram propostas. A melhor alternativa parece ser voltar a atenção para os usuários dos sistemas, seja adotando linguagem simplificada e recursos visuais em avisos de transparênc= ia (visual law), seja promovendo ações de conscientização para trazer maior autono= mia e confiança para esses usuários.
Não é todo mundo que está aplicando ainda, m=
as a
primeira resposta que, para mim, faz muito sentido, principalmente para
negócios B2C, business to consumer, é o visual law. [...] O t=
ipo
de linguagem, as técnicas, as formas [de comunicar] (entrevistado 3).
Um cenário que é abordado constantemente na =
parte
de governança e de segurança [da informação] é a conscientização. O ponto-c=
have
é o usuário. [...] Se o usuário entender qual é a implicação, eventualmente,
ele mesmo vai se regular em como usar [a IA] (entrevistado 2).
A sétima cat= egoria inicial agrupa comentários sobre a revisão de decisões automatizadas. Aqui, as falas dos entrevistados destacam a importância da participação hum= ana nesse processo para garantir justiça e eficiência nas decisões automatizada= s.
Dadas as limitações da técnica de IA que per=
meia a
maior parte das implementações atuais, a decisão final deve ser sempre de um
especialista humano (especialista nos diferentes campos, especialista em sa=
úde,
em educação, em segurança, entre outros) (entrevistado 1).
A supervisão humana é necessária. Ela é
importante. Até porque [a IA] não tem esse senso ponderado de entender o que
está escrito (entrevistado 2).
Existem vários tipos de decisões automatizad=
as.
Com parcial supervisão humana, com total supervisão humana, decisões
automatizadas tomadas por IA e corrigidas por mãos humanas... (entrevistado=
4).
Na oitava ca= tegoria inicial, agrupou-se citações sobre as vantagens do uso de dados sintétic= os. Esses benefícios incluem proteção da privacidade e a capacidade de gerar grandes volumes de dados com rapidez e escalabilidade.
[...] consegue gerar grande quantidade de da=
dos, o
que para a inteligência artificial faz todo o sentido. [...] Outra vantagem=
é a
proteção dos dados pessoais. A partir do momento que o dado é sintético, ele
não vai ter informação pessoal, então isso vai reduzir o risco de violação =
de
privacidade.(entrevistado 3).
Dados sintéticos, pela própria natureza, não
refletem de forma fidedigna o comportamento humano, mas em alguns casos têm
contribuições relevantes (entrevistado 1).
Por fim, na = nona e última categoria inicial, agrupou-se comentários acerca das desvantagens= do uso de dados sintéticos. Limitações incluem o custo e a complexidade pa= ra a criação de dados sintéticos de alta qualidade e um risco maior de imprecisão nos resultados obtidos a partir desses dados.
Quando você produz dado sintético que demanda
recurso computacional de uma maneira mais significativa, um hardware
especializado, vai gerar um custo maior. [...] E tem também a própria limit=
ação
do dado sintético. Porque ele copia o dado real, mas não consegue copiar
100%.... você pode estar lidando com uma margem maior de imprecisão
(entrevistado 3).
Se eu insiro dados que não são confiáveis, ou
sintéticos, ela vai me dar uma resposta sintética também. Não quer dizer que
isso reflita a realidade (entrevistado 2).
Observa-se c= omo os temas se entrelaçam e se complementam. Assim, seguiu-se com a análise do conteúdo das entrevistas agrupando-os em categorias temáticas intermediária= s.
4.1.2 Categorias intermediárias
A primeira c= ategoria intermediária trata da regulamentação do uso de IA no Brasil. Os entrevistados compartilharam suas perspectivas acerca do desenvolvimento de= uma estrutura legal específica sobre o tema, ressaltando a importância de se regular o uso da tecnologia, e não a tecnologia em si. Tal perspectiva é reforçada pela preocupação com o descompasso entre a velocidade da transformação tecnológica e o ritmo com que os processos regulatórios são normalmente conduzidos.
Os entrevist= ados também refletiram sobre a aplicabilidade da regulamentação. Segundo = os especialistas, sua efetividade dependerá da adaptação contínua às inovações tecnológicas e pode variar conforme o setor.
A terceira c= ategoria intermediária reúne citações sobre a governança das decisões automatizad= as, elemento crucial para assegurar decisões justas, transparentes e passíveis = de revisão. Aqui, a intervenção humana foi o principal objetivo de reflexão dos especialistas entrevistados.
Na quarta e = última categoria intermediária, tem-se os dados sintéticos como tema agrega= dor. Aqui, os especialistas trazem uma visão ponderada acerca de sua utilização, pois apesar do recurso reduzir os riscos à privacidade dos dados pessoais, reconhecem que a solução pode não ser adequada a todas as situações.=
4.1.3 Categoria= s finais
Na útlima et= apa da análise de conteúdo, sintetizou-se os resultados das entrevistas em duas categorias temáticas finais, a primeira focada em leis e regulamentos e a segunda, em medidas de governança e responsabilidade que podem ser adotadas pelas organizações ao utilizarem e comercializarem sistemas de IA. <= /p>
Acerca de leis e regulamentos que tragam diretrizes para o uso ético e seguro da IA, de = modo geral, é uma medida bem-vista pelos especialistas, contanto que seja centra= da em princípios para maior flexibilidade. E ainda que os entrevistados concor= dem não ser estratégico frear o desenvolvimento tecnológico ao impor restrições= ou proibições excessivas, isso não significa aceitar o uso indiscriminado da I= A. O objetivo da legislação deve ser o equilíbrio entre a inovação e o desenvolvimento econômico e a garantia de direitos fundamentais.
A segunda ca=
tegoria
final agrupa medidas de governança e responsabilidade corporativa. S=
ão
práticas que ajudam a garantir o uso responsável e transparente da tecnolog=
ia e
podem ser implementadas antes mesmo da aprovação de uma legislação específi=
ca
sobre o tema. Para os especialistas, a adoção de práticas de governança,
incluindo a supervisão de decisões automatizadas e o manejo cuidadoso dos d=
ados
utilizados para treinar os modelos de IA, proporcionam maior confiança nos
usuários e trazem vantagem competitiva às empresas.
5 CONCLUSÃO
O uso cresce= nte de Inteligência Artificial (IA) apresenta implicações significativas para a privacidade e proteção de dados pessoais no Brasil, especialmente no contex= to da Lei Geral de Proteção de Dados Pessoais (LGPD). Neste estudo explora-se essas implicações, fornecendo uma visão dos desafios e oportunidades associ= adas ao uso de IA em conformidade com a LGPD.
Embora a LGP= D não proíba o uso de decisões automatizadas, ela assegura aos titulares de dados= o direito de solicitar uma revisão dessas decisões. Esse aspecto da legislaçã= o é crucial para garantir que os direitos dos indivíduos sejam protegidos. Poré= m, a ausência de uma definição clara para "decisão automatizada" e "tratamento automatizado de dados" na LGPD abre espaço para diferentes interpretações, o que pode dificultar a aplicação da Lei.=
Além disso, = diversos autores alertam que a capacidade da IA de processar grandes volumes de dado= s e tomar decisões autônomas pode resultar em vieses e discriminações, afetando negativamente a vida dos indivíduos. Recomendam a transparência nos process= os de decisão automatizada para construir a confiança dos usuários e assegurar qu= e as decisões tomadas pela IA sejam explicáveis e justas. A adoção de auditorias periódicas e a supervisão humana nos processos decisórios automatizados são ainda recomendadas para evitar discriminações e garantir a responsabilidade= .
No entanto, equilibrar a transparência com a proteção dos segredos comerciais e industr= iais representa um desafio significativo. As organizações precisam encontrar um meio-termo que permita a transparência necessária sem comprometer a proprie= dade intelectual e os segredos comerciais.
Os resultados obtidos por meio de survey e entrevistas com especialistas revelaram que, embora a IA traga inovações para diversas áreas, ela também levanta preocupações sobre discriminação, transparência e responsabilidade entre os profissionais que atuam na área de privacidade e proteção de dados. Os profissionais destacam a necessidade de uma regulamentação mais específica e detalhada que aborde os desafios únicos apresentados pelo uso de IA no tratamento de dados pessoais. A ANPD tem um papel importante na definição de diretrizes e na fiscalização do cumprimento da LGPD no contexto de IA, mas outros agentes também devem contribuir para esse debate, como as agências setoriais.
Em conclusão= , para que o uso de IA seja responsável e ético no Brasil, é necessário um esforço conjunto entre legisladores, organizações e sociedade civil para garantir q= ue os benefícios da IA sejam maximizados enquanto os riscos são minimizados. E= ste estudo contribui para a literatura acadêmica e oferece uma visão para organizações que buscam alinhar suas práticas de IA com os requisitos da LG= PD, promovendo uma cultura de privacidade e proteção de dados no Brasil.=
Recomendaçõe= s para futuras pesquisas podem incluir explorar mais profundamente os impactos da = IA em diferentes setores, desenvolver frameworks de governança específi= cos para IA e investigar as melhores práticas para garantir a transparência e a responsabilidade nos sistemas de decisão automatizada. Com o avanço contínu= o da tecnologia, é essencial que a legislação e as práticas de proteção de dados evoluam de maneira a acompanhar os novos desafios e oportunidades apresenta= das pela IA.
REFERÊNCIAS
AGNER, Luiz; NECYK, Barbara; RENZI, Adri=
ano. Recommendation systems and machine learning: Mapping the user
experience. Design, User Experience, and Usability. Design for Contempor=
ary
Interactive Environments. HCII 2020. Lecture Notes in Computer Science,=
v.
12201, p. 3-17, 2020.
ALMEIDA, Virgílio; MENDES, Laura Schertel; DONEDA, Danilo. On the Development of AI Governance Frameworks. IEEE Internet Computing, v. 27, n. 1, p. 70-74, 2023.
AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS= . Denúncias ou Petições de Titular: informações essenciais para o envio de requerimento= s à ANPD. Brasília, DF: Autoridade Nacional de Proteção de Dados, [s.d.]. Disponível em: https://www.gov.br/anpd/pt-br/canais_atendimento/cidadao-titular-de-dados/d= enuncia-peticao-de-titular. Acesso em: 10 jun. 2024.
BRASIL. Lei nº 13.709, de 14 de agost= o de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, [2020].
DEMETZOU, Katerina; ZANFIR-FORTUNA, Gabr=
iela;
VALE, Sebastião Barros.
FERNANDES, Rafael Gonçalves; OLIVEIRA, L= iziane Paixão Silva. A Regulação do Agir Decisório Disruptivo no Judiciário Brasil= eiro e a Observância do Princípio da Precaução: juiz natural ou “juiz artificial"? Revista Opinião Jurídica, v. 19, n. 30, = p. 91-117, 2021.
GALEGALE, N. V., FONTES, E.L.G. & GALEGALE, B. P.. Uma contribuição para a segurança da informação: um estudo= de casos múltiplos com organizações brasileiras. Perspectivas em Ciência da Informação, v.22, n.3, (pp.75-97), 2017.
KITCHENHAM, Barbara. Procedures for Performing Systematic Reviews. Keele Univer= sity Technical Report TR/SE-0401, 2004.
MASSENO, Manuel David. Das Consequências
Jurídicas da Adesão do Brasil aos Princípios da OCDE para a Inteligência
Artificial, Especialmente em Matéria de Proteção de Dados. Revista Campo Jurídico, v. 8, n. 2, p. 113-122, 20=
20.
MELZI, Pietro et al. FRCSyn Challenge at WACV 2024: Face Recognition Challenge in the Era of
Synthetic Data. In: Proceedings of the IEEE/CVF Winter Conference on
Applications of Computer Vision, p. 892-901, 2024.
MOREIRA, Paulliny Araújo; FERNANDES, Rei=
mison
Moreira; AVILA, Lucas Veiga; BASTOS, Leonardo dos Santos Lourenço; MARTINS,
Vitor William Batista. Artificial Intelligence and =
Industry
4.0? Validation of Challenges Considering the Context of an Emerging Economy
Country Using Cronbach’s Alpha and the Lawshe Method. Eng, v. 4, n. =
3,
p. 2336-2351, 2023.
PELE, Antonio; MULHOLLAND, Caitlin. On Facial Recognition, Regulatio=
n,
and "Data Necropolitics". Indiana
Journal of Global Legal Studies, v. 30, n. 1, p. 173-194, 2023.
PINHEIRO, Patricia Peck; BATTAGLINI, Helen Batista. Artificial
Intelligence and Data Protection: a comparative analysis of AI regulation
through the lens of data protection in the EU and Brazil. GRUR
International: Journal of European & International IP Law, v. 71, n.
10, p. 924-932, 2022.
REIS, Nazareno César Moreira; FURTADO, G= abriel Rocha. Decisões Automatizadas: definição, benefícios e riscos. Civi= listica.com, v. 11, n. 2, p. 1-44, 2022.
SILVA, Andressa Hennig; FOSSÁ, Maria Ive= te Trevisan. Análise de Conteúdo: exemplo de aplicação da técnica para análise= de dados qualitativos. Qualitas Revista Eletrônica, v. 17, n. 1, p. 1-14, 2015.
SILVA, Paula Guedes Fernandes da. É meni= no! É menina! Os riscos das tecnologias de análise facial para as identidades de gênero trans e não-binárias. Direito, Estado e Sociedade, n. 60, p. 217-238, 2022.
TRANFIELD, David; DENYER, David; SMART, Palminder. Towards a Methodology for Developing Evid= ence‐= Informed Management Knowledge by Means of Systematic Review. = span>British Journal of Management, v. 14, n. 3, p. 207-222, 2003.
VECCHIO, Fabrizio Bon; EROUD, Aicha de A= ndrade Quintero. Discriminação em Algoritmos de Inteligência Artificial e a LGPD. = Revista Jurídica Unicuritiba, v. 2, n. 74, p. 1-11, 2023.
Implicações do uso de
inteligência artificial à proteção de dados pessoais no Brasil
Juliana Maria de Vargas Ferreira Freire; Juliane Borsat=
o Beckedorff Pinto; Eliane Antonio=
Simões; Napoleão Verardi Galegale
|
IS=
SN
2237-4558 • Navus • <=
/span>Florianópolis
• SC • <=
/span>v.
18 • p. 01- |
|
|
|
|
|
ISSN 2237-4558
• Navus • &n=
bsp;Florianópolis •
SC • v.9
• n.2 • <=
/span>p.
XX-XX • abr./jun. 2019 |
|