Inteligência Artificial e Privacidade...Inteligência Artificial e Privacidade Documento temático...
Transcript of Inteligência Artificial e Privacidade...Inteligência Artificial e Privacidade Documento temático...
Inteligência Artificial e Privacidade
Documento temático
(Traduçao não oficial)
Declaração
Esta tradução não oficial em Português do documento, disponibilizada pelo
Gabinete para a Protecção de Dados Pessoais (GPDP) do Governo da RAEM,
servindo apenas para a consulta dos interessados.
Este documento dedica-se ao objectivo referencial, não é lei ou regulamento
vigente na RAEM, e não produz qualquer efeito legal. O GPDP ou qualquer
outra entidade pública na RAEM não se responsabiliza por qualquer prejuízo ou
dano provocado por este documento ou pela reprodução ou divulgação do
mesmo.
Este documento pode ser publicado ou reproduzido para uso sem fins
lucrativos. No entanto, o utilizador deve declarar que o documento é
disponibilizado pelo GPDP e indicar a origem do documento em Inglês. Salvo
autorização prévia por escrito do GPDP, ninguém pode reproduzir, reeditar,
distribuir, divulgar ou proporcionar este documento para uso com fins lucrativos.
O GPDP reserva o direito de responsabilizar o infractor nos termos da lei.
Governo da Região Administrativa Especial de Macau
Gabinete para a Protecção de Dados Pessoais
Abril de 2019 (1.
a versão)
Nota
O documento temático “Inteligência Artificial e Privacidade” é uma tradução para
Português do documento “Issues paper - Artificial Intelligence and Privacy”,
publicado pelo Comissariado para a informação da Victória (Office of the Victorian
Information Comissioner)
(https://ovic.vic.gov.au/wp-content/uploads/2018/08/AI-Issues-Paper-V1.1.pdf).
O texto original em Inglês foi publicado em Junho de 2018 pelo Comissariado para
a informação da Victória, Austrália.
O documento foca-se nas questões e desafios em relação à protecção de dados
pessoais e privacidade, trazidos pela aplicação das tecnologias de IA, e discute a
importância sobre ética e responsabilização no mesmo domínio.
Recorda-se o leitor que este Documento foi reparado tendo como pano de fundo
enquadramento legal da Austrália.
Assim alguns temas são discutidos sob uma perspectiva jurídica diferente da da
RAEM, e deverá ter-se o cuidado de não retirar paralelos próximos com as soluções
jurídicas de Macau para os mesmos problemas.
O Gabinete para a Protecção de Dados Pessoais formula votos de que os
responsáveis pelo tratamento, os subcontratantes e o público em geral possam
beneficiar dos úteis ensinamentos contidos no presente documento.
Governo da Região Administrativa Especial de Macau
Gabinete para a Protecção de Dados Pessoais
Inteligência Artificial e Privacidade
Documento temático
1. Introdução ................................................................................................................................ 4
1.1 Objectivo deste documento ...................................................................................... 5
2. Terminologia ........................................................................................................................... 5
2.1 Inteligência artificial restrita, genérica e super ....................................................... 5
2.2 Megadados ................................................................................................................ 6
2.3 Machine Learning ..................................................................................................... 7
2.4 Deep learning ............................................................................................................ 8
3. Inteligência artificial no sector público ................................................................................. 9
4. Considerações sobre a privacidade ...................................................................................... 10
4.1 Porque é a IA diferente? ......................................................................................... 11
4.2 Informação Pessoal ................................................................................................. 12
4.3 Recolha, objectivo e utilização .............................................................................. 14
4.4 Limitação da recolha .............................................................................................. 14
4.5 Especificação da finalidade .................................................................................... 15
4.6 Limitação da utilização .......................................................................................... 15
4.7 Transparência e consentimento .............................................................................. 17
4.8 Discriminação ......................................................................................................... 18
5. Responsabilização e governança .......................................................................................... 19
6. Conclusão .............................................................................................................................. 20
7. Leitura complementar ........................................................................................................... 21
4
Inteligência Artificial e Privacidade
Documento temático
1. Introdução
A Inteligência Artificial (IA), simplesmente, é uma subdivisão das ciências
informáticas com o objectivo de criar programas que podem executar tarefas
geralmente realizadas por seres humanos. Estas podem ser consideradas
inteligentes e incluir percepção de som e imagem, aprendizagem e adaptação,
raciocínio, reconhecimento de padrões e tomada de decisões. O termo “IA” é
frequentemente utilizado como um geral para descrever um conjunto de técnicas e
tecnologias relacionadas que incluem o MachineLearning, análise preditiva,
processamento de linguagem natural e robótica.
Mesmo que a filosofia da IA tenha sido discutida desde,pelo menos, Leibniz
no início do séc. XVIII, o conceito de IA que usamos existe desde o início da
década de 40 e tornou-se conhecido por causa do desenvolvimento do “teste de
Turing” em 1950. Mais recentemente, estamos a experienciar um período de
desenvolvimento rápido no campo de IA, como resultado de três factores:
algoritmos melhorados, aumento da capacidade computacional em rede e uma
maior capacidade de capturar e armazenar uma quantidade sem precedentes de
dados.1 Tal como os avanços tecnológicos, o próprio pensamento sobre as
máquinas inteligentes mudou-se significativamente desde os anos 60, isto
possibilitou muitos dos desenvolvimentos que estamos a usufruir hoje em dia.
As aplicações das tecnologias de IA já estão introduzidas nas nossas vidas
quotidianas, embora muitas pessoas não estejam cientes disto. Sendo uma das
características da IA, logo a tecnologia funciona, deixa de ser tratada como IA,
mas se transforma em computação mainstream2. Por exemplo, ser atendado por
uma voz automatizada do outro lado do telefone, ou receber uma sugestão de um
filme com base em preferências pessoais, todos são exemplos de tecnologias da IA
mainstream. Actualmente, estes sistemas constituem elementos fundamentais nas
nossas vidas, o facto é que, as técnicas de IA - incluindo reconhecimento de fala,
processamento de linguagem natural e análise preditiva – estão em funcionamento,
no entanto, estão esquecidas muitas vezes.
As maneiras em que a IA pode enriquecer as nossas vidas são imensas. O
aumento da eficiência e os custos mais baixos, as grandes melhorias em cuidados
de saúde e investigação, a maior segurança de veículos e a conveniência geral,
estes são apenas algumas esperanças trazidas pela IA. Entretanto, como qualquer
nova tecnologia, as oportunidades da IA trazem um conjunto de desafios sociais e
1 Alex Campolo, Madelyn Sanfilippo, Meredith Whittaker & Kate Crawford, ‘AI Now 2017 Report’, AI Now, 2017,
disponível em: https://ainowinstitute.org/AI_Now_2017_Report.pdf, p 3. 2 Toby Walsh, It's Alive! Artificial Intelligence from the logic piano to killer robots, Latrobe University Press, 2017, p 60.
5
jurídicos3
1.1 Objectivo deste documento
Este documento temático é uma introdução que serve para uma conversa mais
ampla respeitante à privacidade da informação e à IA. destina-se ao público
não-técnico e não pretende resolver as questões colocadas, nem fornecer
orientações jurídicas. Nota-se que existem muitas outras questões éticas, técnicas e
legais associadas com a IA, mas estão fora do âmbito deste documento. A última
página do documento contém uma lista de leitura complementar, algumas das
quais exploram mais profundo em relaçao as outras questões importantes.
O objectivo deste documento é:
fornecer um entendimento de alto nível sobre a IA e as suas aplicações no
sector público, e
sublinhar alguns dos desafios e oportunidades que a IA traz em relação à
privacidade da informação.
Para o propósito deste documento, a discussão geralmente limita-se à
privacidade da informação, que é um ramo do mais amplo e abstracto conceito da
privacidade. Na Victória e outras regiões, o tratamento legislativo no que diz
respeito à protecção da privacidade foca-se mais na privacidade da informação do
que outros ramos, tais como privacidade física.4 Privacidade da informação
relaciona-se com o nível de controlo que um individuo tem sobre a sua própria
informação pessoal em determinar quando, como e para que finalidade é utilizada.
2. Terminologia
Existe uma quantidade significativa de terminologia e jargão técnico à volta
da IA, a qual é frequentemente usada de forma intercambiável e pode causar
confusão, nomeadamente para aqueles que não têm um conhecimento técnico. A
seguir, é uma explicação simples sobre os termos fundamentais para ajudar os
leitores gerais a entenderem alguma terminologia em relação à IA, e ainda a
discussão colcada neste documento. Esta lista não é exaustiva, nem pretende ser
aprofundada a nível tecnológico.
2.1 Inteligência artificial restrita, genérica e super
A maioria da IA que experimentamos hoje em dia é considerada “restrita”.
Isto significa que é deliberadamente programada para ser competente numa área
específica. Também é por vezes denominada de inteligência aumentada para
3 Por exemplo, Samuel Warren e Louis Brandeis escreveram sobre o impacto da câmara portátil no right to be let alone no
século XIX. Ver Samuel D. Warren e Louis D. Brandeis, ‘The Right to Privacy’, Harvard Law Review, Vol. IV, No. 6, 15 de
Dezembro de 1890. 4 Para mais informação sobre a lei de privacidade da informação na Austrália, ver Privacy Background Paper, 2015,
disponível em : http://www.ovic.vic.gov.au/.
6
sublinhar a sua capacidade de melhorar (mas não necessariamente substituir) a
inteligência humana. Por exemplo, um computador produzido nos anos 80 pela
IBM chamado Deep Blue conseguia jogar xadrez a um nível superior ao ser
humano, sendo um feito de grande importância na história do desenvolvimento da
IA. Porém, enquanto que o Deep Blue exibe uma capacidade sobre humana em
jogar xadrez, a sua inteligência termina aí.
No contrário, o conceito da inteligência artificial genérica (Artificial General
Intelligence, AGI) refere-se a um nível de inteligência transversal a vários campos.
A distinção entre inteligência genérica e restrita já é aparente no mundo natural:
por exemplo, as abelhas sabem construir colmeias e as formigas conseguem
construir formigueiros – ambos são exemplos de inteligência num sentido restrito.
Porém, esta inteligência é restrita a um domínio específico; as abelhas não sabem
construir um formigueiro e as formigas não consegum construir uma colmeia. Os
seres humanos, por outro lado, têm a capacidade de ter inteligência sobre
diferentes áreas, e conseguem aprender inteligência em novas áreas através da
experiência e observação.
À base da ideia da AGI, a superinteligência artificial é geralmente vista como
uma IA que é tanto geral e excede os níveis da inteligência humana. Um autor
notável nesta área, Nick Bostrom, define a superinteligência como um “intelecto
que é muito mais inteligente que os melhores cérebros humanos em praticamente
todos os campos, incluindo criatividade científica, sabedoria geral e habilidade
sociail.” 5 Muitas concepções na cultura pop da IA, tais como nos filmes Ex
Machina e Her, se apresentam a IA no formato da superinteligência. Este tipo de
caracterização pode estimular a excitação e/ou medo sobre a IA, enquanto é uma
ideia popular na ficção científica, e existe um debate significativo sobre a
probabilidade, iminência e as consequência de se desenvolve essa tecnologia.
No contexto deste documento temático, o âmbito da discussão limita-se à IA
restrita, doravante designada por IA.
2.2 Megadados
A relação entre a IA e os megadados tem dois sentidos. Ainda que os
processos analíticos dos megadados já existam, a maioria do real valor dos
mesmos só é conseguida utilizando técnicas de IA. Noutro sentido, os megadados
oferecem à IA uma fonte imensa e rica de entrada de dados para desenvolver e
aprender a partir deles. Neste sentido, a IA e os megadados estão fortemente
interligados.
Não existe uma definição estabelecida em relação aos megadados, porém, o
5 Nick Bostrom, ‘How long before superintelligence?’, Linguistic and Philosophical Investigations, Vol. 5, No.1, 2006, pp
11-30.
7
termo é geralmente utilizado para descrever quantidades gigantescas de dados,
produzidos e recolhidos numa variedade de formatos.6 Os tipos e a escala da
informação incluída sob o termo “megadados” não podem ser subestimados; quase
todas as acções de um individuo prouduzem dados – pesquisas online; partilha e
transmissão de informações diárias com o governo, empresas e redes sociais, até
mesmo dar um passeio com um smartphone – todas, intencionalmente ou não,
criam vastas quantidades de informação sobre os indivíduos. À medida que a
internet das coisas (Internet of Things, IoT) leva a rede mais e mais para o nosso
ambiente físico e espaço pessoal, o âmbito dos dados criados, recolhidos e levados
para os nossos sistemas de IA tende a entrar mais nas nossas vidas pessoais.
O Comissariado para a Informação do Reino Unido (The Information
Commissioner’s Office of the United Kinggdom) resume a ligação entre a IA e os
megadados de forma bastante eloquente:
Os megadados podem ser vistos como uma mais valia que é difícil de
aproveitar. A IA pode ser vista como uma chave de desbloquear o valor dos
megadados; e o Machine Learning é um dos mecanismos técnicos que sustenta e
facilita a IA.7
2.3 Machine Learning
Machine Learning é uma técnica de ciência informática que permite aos
computadores “aprenderem” por si próprios. É frequentemente caracterizada como
IA, mas essa é apenas uma das suas características. A característica que distingue
Machine Learning de outras formas da IA é a sua capacidade dinâmica de se
modificar quando é exposto a mais dados.8 Através da “absorção” de dados, a
máquina aperfeiçoa-se a si própria, desenvolvendo a sua lógica de acordo com os
dados que analisou.
Existem dois tipos de Machine Learning: supervisionado e sem supervisão. A
aprendizagem supervisionada requer um humano a fornecer tanto os dados como
as soluções, deixando a máquina determinar a ligação entre as dois partes. A
aprendizagem sem supervisão permite à máquina aprender mais livremente
ingerindo uma grande quantidade de dados (frequentemente os megadados) e
repetir análises dos mesmos até encontrar padrões e insights.
Por exemplo, alguém está interessado em prever o preço de uma casa. Para
fazer isto, pode dizer-se à máquina para procurar numa variedade de características
como número de quartos, se tem jardim ou não, etc. Utilizando a técnica da
aprendizagem supervisionada, seria dado também preços históricos de casas 6 Uma explicação completa dos megadados pode ser encontrada no Relatório do Relator Especial sobre o direito à
privacidade, preparado pelo Conselho de Direitos Humanos, A/72/43103, Outubro de 2017. 7 O UK Information Comissioner’s Office (ICO), Big Data, artificial intelligence, machine learning and data protection, 2017, p 8. 8 Ver por exemplo: What's the difference between Artificial Intelligence, Machine Learning and Deep Learning?,
disponível em https://deeplearning4j.org/ai-machinelearning-deeplearning, acedido a ultima vez em 17 de Abril de 2018.
8
comparáveis, para que o algoritmo possa construir um modelo para compreender a
relação entre certas características e o preço, e daí a máquina seria capaz de ter
uma previsão razoável repeitante ao preço da casa, com base nessas características.
No contexto da aprendizagem sem supervisão, a máquina não contaria com o
historial de preços de casas, nem teria acesso a quais características são
importantes considerar – em vez disso, iria determinar os padrões por si.
Estas técnicas são utlizadas em contextos diferentes e para propósitos variados.
Nenhuma requer programação explícita sobre o que procura, e o que confere ao
sistema um nível de autonomia para gerar a sua própria lógica, identificando
tendências que de outro modo não teriam sido detectadas por seres humanos.9 Os
algoritmos de Machine Learning já são utilizados de forma abundante na vida
moderna. Alguns exemplos incluem a produção de resultados de pesquisa web,
serviços onde há uma componente de sugestão como Netflix e Pandora, e prever o
valor monetário de um produto dado o mercado existente. A extensão sobre a qual
Machine Learning é útil é determinado pelos dados de entrada fornecidos. Por
causa disso, os ‘megadados’ têm providenciado um papel fulcral no sucesso de
Machine Learning.
2.4 Deep learning
Deep learning é uma subdivisão de Machine Learning, habitualmente
utilizado para fazer referência às redes neurais profundas (deep neural networks).10
Em termos gerais, uma rede neural processa dados através de uma abordagem por
camadas, onde cada camada recebe os dados de entrada a partir dos dados de saída
da camada antes desta. O termo profundo, ou “deep”, refere-se ao número de
camadas da rede neural.
À medida que a saída de cada camada se torna na entrada da seguinte, pode se
tornar progressivamente difícil compreender as decisões e as inferências feitas a
cada nível. O processo de passar por cada camada pode criar o que é referido como
efeito “caixa preta”, fazendo com que seja difícil entender verdadeiramente e
descrever os passos que levam a um resultado em particular.11 O cérebro humano
é frequentemente usado como analogia para explicar as redes neurais, porém isto
não é suficientemente descritivo, implicando que as máquinas entendem a
informação num modo semelhante ao pensamento humano, mas o que não é o
mesmo caso.
Deep learning é uma ferramenta extremamente poderosa, e muitos
creditam-na pela recente explosão da IA. Esta permitiu aos computadores terem a
capacidade de identificar palavras faladas quase tão bem como um humano, e
9 Will Knight, ‘The Dark Secret at the Heart of AI’, MIT Technology Review, 11 Abril 2017, disponível em
https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/. 10 Também é menos frequentemente usado para fazer menção a aprendizagem de reforço profunda. Para uma explicação de
ambas, ver Introduction to Deep Neural Networks, disponível em: https://deeplearning4j.org/neuralnet-overview. 11 ICO, Big Data, artificial intelligence, machine learning and data protection, 2017, p 11.
9
transformou a visão informática e melhorou dramaticamente a tradução por
computador – capacidades que são demasiadamente complexas para escrever à
mão sob a forma de código em máquinas. A natureza deste processo traz desafios à
transparência das decisões, já que alógica se pode tornar progressivamente obscura
ao olho humano a cada camada de processamento. Além disso, as redes neurais
não são imunes a viés. Por exemplo, uma rede neural recorrente (RNN) irá pegar
em dados aos quais já foi exposta para os tratar.12 Alguns descrevem a RNN como
tendo uma memória, o que à semelhança do ser humano, afecta a saída dos dados.
Por exemplo, em 2016 a Microsoft treinou um bot da IA utilizando uma RNN em
dados do Twitter, o que demonstrou o potencial para consequências não
intencionais deste modo da aprendizagem.13
3. Inteligência artificial no sector público
Enquanto o desenvolvimento da tecnologia da IA está a ser orientado
sobretudo pela indústria e pela investigação académica, as aplicações e o
desenvolvimento da IA também são relevantes ao sector público. O governo já
utiliza a IA nas muitas áreas, mas está em posição de beneficiar com maior
adopção destas tecnologias. Além disso, o governo tem um papel significativo em
definir como as tecnologias da IA afectam as vidas dos cidadãos através de
regulamentação, políticas e demonstração das melhores práticas. É importante que
o governo não fique para trás à medida que o sector privado segue em frente – isto
significa adoptar uma abordagem proactiva, dinâmica e informada face à
tecnologia e a sua interacção com a legislação e a sociedade.
Os usos da IA actualmente e do futuro em governo permanecem limitados por
cauasa de recursos, capacidade técnica e confiança do público. Algumas das
oportunidades de benefício mais imediatas para o sector público são aquelas em
que a IA pode reduzir a carga administrativa e ajudar a resolver problemas de
distribuição de recursos. A curto prazo, as aplicações da IA têm o potencial de ser
imensamente uteis no aumento da eficiência de processos governamentais
estabelecidos, tais como responder perguntas, preencher e procurar documentos,
reencaminhar pedidos, tradução e elaboração de documentos.14 Como por
exemplo, o uso de bots de chat para fornecer serviços ao cliente e aconselhamento
a indivíduos já se realizaram em algumas das maiores organizações
governamentais australianas.
A prazo mais longo, a IA tem o potencial, além de simplesmente melhorar os
processos estabelecidos, de alterar totalmente as operações governamentais. É
12 Para mais informação sobre redes neurais recorrentes, ver https://deeplearning4j.org/lstm.html. 13 Elle Hunt, ‘Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter’, The Guardian, Março de 2016,
disponível em:
https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter. 14 Hila Mehr, ‘Artificial Intelligence for Citizen Services and Government’, Harvard Ash Center for Democratic
Governance and Innovation, Agosto de 2017, disponível em:
https://ash.harvard.edu/files/ash/files/artificial_intelligence_for_citizen_services.pdf.
10
provável que venha a obrigar as organizações a adaptar às necessidades e
espectativas em constante evolução dos cidadãos, e alterar o campo regulatório e
legislativo para abrir caminho para os novos usos da tecnologia.
Mesmo que a IA prometa muitas oportunidades para o sector público, não
pode ser vista como uma solução para todos os desafios do governo. O uso e a
regulamentação das tecnologias da IA precisa de ser implementado de forma
estratégica e ponderosa, com particular cuidado na gestão de informação incluindo
a privacidade, a segurança dos dados, e a ética em termos mais abrangentes.15
4. Considerações sobre a privacidade
Esta secção explora foca-se em algumas das questões fundamentais trazidas
pela IA em relação à privacidade da informação. Isto não é uma exploração
exaustiva de todas as questões; serve, porém, para fornecer um panorama e
funcionar como rampa de lançamento para uma maior discussão relativamente a
considerações mais proeminentes no que toca à privacidade da informação.
Na Victória e outras regiões, a lei da privacidade da informação baseia-se
geralmente nas Directrizes para a Protecção da Privacidade e dos Fluxos
Transfronteiriços de Dados Pessoais de 1980. Estas Directrizes contêm oito
princípios fundamentais que continuam a estar consagrados na lei da privacidade
por todo o mundo, incluindo a Lei da Protecção de Privacidade e Dados de 2014
(Privacy and Data Protection Act , PDP Act). Um dos benefícios de ter legislação
baseada em princípios é que reconhece a natureza complicada e diferenciada da
privacidade, e permite um grau de flexibilidade em como a privacidade pode ser
protegida em vários contextos e a par de tecnologias e normas sociais em evolução.
Enquanto as Directrizes da OCDE têm sido notavelmente bem-sucedidas na
promoção de legislação de privacidade da informação por todo o mundo, a IA
apresenta desafios aos princípios basilares sobre os quais foram construídos por
essas Directrizes.
Enquanto as noções tradicionais da privacidade podem ser desafiadas pela IA,
não é uma presunção que a IA irá erodir a privacidade por defeito (privacy by
default); é possível conceber um futuro em que a IA possa ajudar a assegurar a
privacidade. Por exemplo, é provável que menos pessoas precisem, realmente,
dados em bruto para trabalhar com os mesmos, e isto possa, por sua vez,
minimizar o risco de violação da privacidade devido ao erro humano, também
possa capacitar um consentimento mais significativo, no qual os indivíduos
recebem serviços personalizados dependendo das suas preferências da privacidade
que a IA tinha estado ao longo dos tempos.
O aumento do uso da IA requer que o status quo da protecção da privacidade
15 Ibid., p 10.
11
seja revisto, no entanto, isto não significa que a privacidade deixe de existir ou
tornar irrelevante.
Um dos factores importantes da privacidade da informação é que fornece um
quadro essencial para fazer escolhas éticas sobre como utilizamos as novas
tecnologias. As considerações respeitantes à ética da tecnologia e resoluções dos
desafios da privacidade serão essenciais para o sucesso a longo prazo da IA. O
equilíbrio entre inovação tecnologia e considerações sobre privacidade irá
promover o desenvolvimento da IA socialmente responsável que possa assistir a
criação de valor público a longo prazo.
4.1 Porque é a IA diferente?
As tecnologias emergentes trazem quase sempre consigo considerações
importantes em relação à privacidade, mas a escala e a aplicação da IA criam um
ambiente único e sem precedentes de desafios contra a privacidade da informação.
De algumas formas, as implicações da IA podem ser vistas como uma extensão de
feito criado pelos megadados, mas a tecnologia de IA traz consigo não só a
capacidade de processar grandes quantidades de dados, mas também de os usar
para aprender, desenvolver modelos adaptativos e fazer previsões sob as quais é
possível agir – muitas vezes sem processos transparentes e explicáveis.
O desenvolvimento da tecnologia da IA provoca um risco significativo de as
premissas e preconceitos dos indivíduos e empresas que os criam virem a
influenciarm os resultados da IA. Consequências não intencionais causadas por
vieses e resultados opacos de utilizar redes neurais colocam desafios para
organizações governamentais que queiram usar esta tecnologia para fins finalidade
de tomada de decisão. A possibilidade de descriminação e como isto interage com
a privacidade é discutida mais profundo abaixo.
Outro ponto-chave de diferenciação entre a IA e as tecnologias analíticas
existentes é o potencial de automatizar todas estas áreas, onde os humanos têm
sido historicamente capazes de exercer um alto grau de controlo sobre o
processamento dos dados, o incremento do uso da IA significa que este pode já
não ser o mesmo caso. Além disso, a aplicação da IA às tecnologias existentes está
em posição de alterar o seu uso e considerações da privacidade actuais de modo
profundo. Por exemplo, o uso de câmaras de segurança em espaços públicos para
finalidades de vigilância é uma prática bastante difundida comum e não é
considerada demasiadamente intrusiva invasiva na sociedade moderna. Porém, a
combinação de uso de software de reconhecimento facial e , uma rede de câmaras
pode ser transformada numa ferramenta que é muito mais invasiva da privacidade.
A IA também tem o potencial de mudar as maneiras como os seres humanos
interagem com as máquinas. Por exemplo, muitas da IA já se introduziram
características humanas. O uso de interfaces antropomórficas, tais como vozes
12
com som humano utilizadas em assistentes como Alexa e Siri, pode provocar as
novas preocupações sobre a privacidade. As pesquisas em ciências sociais indicam
que as pessoas têm tendência a interagir com a tecnologia como se fosse humana.
16 Isto significa que as pessoas podem ter maior probabilidade de desenvolver
relações de confiança com IA concebida para replicar características humanas, e
consequentemente estar mais inclinadas para partilhar informação
progressivamente mais pessoal quando comparadas com outras formas de
tecnologia que recolhem informação através de uma forma tradicional.
Muito do discurso sobre a privacidade da informação à volta da IA não
contabilizou as assimetrias de poder entre instituições que acumulam dados e os
indivíduos que a produzem.17
Os modelos actuais geralmente tratam os dados
como um bem que pode ser comercializado, o que não reconhece totalmente a
dificuldade para as pessoas em tomar decisões sobre os seus dados quando lidam
com sistemas que não compreendem – particularmente quando o sistema os
entende bem e aprendeu, via a ingestão dos seus dados, como manipular as suas
preferências. Além disso, muitos algoritmos adaptativos usados em IA mudam
constantemente, ao ponto de que frequentemente aqueles que os criam não
conseguem explicar na integra os resultados que geram.
As noções estabelecidas de privacidade de informação baseiam-se na ideia de
que os humanos são os principais tratadores de informação e não foram
concebidos para competir com a capacidade computacional da IA que não se
conforma a ideias tradicionais de recolha e tratamento de dados18
. A forma como
pensamos actualmente sobre conceitos tais como consentimento, aviso e o que
significa ter acesso ou controlar informação pessoal nunca antes foram tão
fundamentalmente desafiados como estão a ser pela IA. Como foi sublinhado
acima, incorporar considerações de privacidade como parte de um modelo ético
pode ajudar na criação de IA que não prejudica a privacidade da informação à
medida que estes conceitos evoluem.
4.2 Informação Pessoal
A PDP Act e muitas outras peças de lei de privacidade da informação apenas
protegem informação pessoal. Neste sentido, a definição de o que constitui
informação pessoal funciona como “porteiro” às protecções jurídicas que são
disponibilizadas aos indivíduos. A definição da informação pessoal pode variar
entre jurisdições e evolui a par das normas legais e da sociedade. As novas
tecnologias também podem mudar o âmbito da informação pessoal à medida que
16 Stanford University, ‘Artificial Intelligence and Life in 2030’, One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel, Section III: Prospects and Recommendations for Public Policy, Setembro de 2016, disponível
em: http://ai100.stanford.edu/2016-report; Kate Darling, Extending legal protection to social robots: The effects of
anthropomorphism, empathy, and violent behavior towards robotic objects, 2012. 17 Alex Campolo, Madelyn Sanfilippo, Meredith Whittaker & Kate Crawford, ‘AI Now 2017 Report’, AI Now, 2017,
disponível em: https://ainowinstitute.org/AI_Now_2017_Report.pdf, p 28. 18 Ibid
13
as novas formas de informação são criadas. Por exemplo, os dispositivos de fitness
criam informação sobre os indivíduos que anteriormente não existia, mas que
actualmente pode ser considerada informação pessoal.
Em geral, o conceito da informação pessoal baseia-se na ideia de
identificabilidade – se ou não a identidade duma pessoa seria razoavelmente
determinada a partir dessa informação. Porém, a distinção entre o que é e não é
considerado “pessoal” está a ser desafiado pela capacidade incremental de ligar e
associar dados a indivíduos, mesmo onde anteriormente se pensava estar
desconectado ou não serem dados não identificadores à partida. Neste aspecto, a
combinação de informação aparentemente não pessoal pode se tornar informação
pessoal quando analisada ou correlacionada. À medida que a quantidade de dados
disponíveis aumenta e as tecnologias de processamento e combinação melhoram,
torna-se progressivamente mais difícil avaliar se uma peça de dados fornecida é
“identificável”; considerar uma peça de dados em isolamento não é compatível
com a tecnologia de IA, e já não é um reflexo verdadeiro de se algo pode ser
considerado ‘informação pessoal’.
Muito do valor da IA está na sua capacidade de identificar padrões invisíveis à
visão humana, aprender e fazer previsões sobre indivíduos e grupos. Neste sentido,
a IA pode criar informação que é de outra forma difícil de recolher ou não existe já.
Isto significa que a informação a ser recolhida e utilizada pode se estender além do
que originalmente foi divulgado com conhecimento por um individuo. Uma parte
da esperança das tecnologias preditivas é que as deduções podem ser realizadas de
outros pedaços de dados (aparentemente não-relacionados e inócuos). Por exemplo,
um sistema de IA produzido para efectuar um processo de recrutamento mais
eficiente pode ser capaz de inferir a inclinação política de um candidato de outra
informação que o mesmo forneceu, e a seguir incorporá-lo no processo de tomada
de decisão.
Inferir informação deste modo não só desafia o que é considerado informação
pessoal, mas também levanta questões sobre se é aceitável inferir informação
pessoal sobre um indivíduo que optou por não o revelar. Outras questões, tais
como quem controla a informação, e se a mesma é sujeita a princípios de
privacidade da informação – incluindo o requisito de informar o indivíduo que a
informação foi recolhida sobre eles por meio de inferência – também foram
levantadas.
A noção binária actual dae informação pessoal já está a ser desafiada por
tecnologias mainstream, e ainda assim a IA ofusca a distinção ao ponto em que ,
ou seja, o que é e o que não é “‘informação pessoal”’ se está a tornar
consideravelmente mais difícil de definir. A emergência incrementada da IA
poderá provavelmente levar a um ambiente em que toda a informação que é gerada
por ou relacionada com um individuo é seja identificável. Nesta situação,
14
determinar o que é ou não protegido pela lei da privacidade de acordo com a
definição da informação pessoal não irá provavelmente ser técnica ou legalmente
prático, nem particularmente útil como um modo eficaz de proteger a privacidade
de indivíduos. Muitas pessoas argumentam que existe uma necessidade de mudar o
modo de um entendimento binário de em relação à informação pessoal para que a
lei da privacidade continue a proteger a privacidade da informação dos indivíduos
num ambiente da IA.
4.3 Recolha, objectivo e utilização
Os três principais pilares de informação que original das Directrizes da OCDE
são:
Limitação da recolha: A recolha de informação pessoal deve ser limitada
ao que é necessário; a informação pessoal deve apenas ser recolhida
através de meios legais e justos, e adequados, deve ainda ser recolhida
com o conhecimento e/ou consentimento do indivíduo.
Especificação da finalidade: a finalidade da recolha de informação
pessoal deve ser especificada ao indivíduo no momento da recolha.
Limitação da utilização: A informação pessoal apenas deve ser usada ou
divulgada para o propósito para o qual foi recolhida, a não ser que haja
consentimento ou autoridade legal para fazer o contrário.
O objectivo destes princípios interligados é de minimizar a quantidade de
informação que qualquer organização tem sobre um individuo, e de assegurar que
a forma como a informação é tratada é consistente com as espectativas do
individuo. A IA desafia fundamentalmente todos os três destes princípios.
4.4 Limitação da recolha
A própria natureza de muitas das técnicas da IA, em particular Machine
Learning, baseia-se na “absorção” de quantidades gigantes de dados para treinar e
testar algoritmos. Recolher estas quantidades de dados pode ajudar ao
desenvolvimento da IA, mas também se pode opor directamente ao princípio de
limitação da recolha. Os desenvolvimentos tecnológicos em dispositivos da IoT,
telemóveis e o rastreamento na web significam que os dados que são alimentados
aos sistemas de IA não são frequentemente recolhidos em transacções tradicionais
onde as pessoas fornecem conscientemente a sua informação pessoal a alguém que
apresenta o pedido.19 De facto, muitos indivíduos não estão totalmente cientes da
quantidade de informação a ser recolhida sobre eles dos seus dispositivos e
subsequentemente a ser usada como dados de entrada por sistemas de IA. Isto cria
um nível de conflito porque limitação daa recolha de informação pessoal é
19 Information Accountability Foundation, Artificial Intelligence, Ethics and Enhanced Data Stewardship, 20 de Setembro
de 2017, p 6.
15
incompatível com a funcionalidade das tecnologias de IA e os dispositivos que
recolhem dados para as apoiar, mas recolher tais quantidades de informação cria
riscos de privacidade inerentes.
4.5 Especificação da finalidade
Fornecer uma explicação do objectivo da recolha (geralmente através de um
aviso de recolha) é como a maioria das organizações adere ao princípio de
especificação da finalidade. A capacidade da IA de extrair significado de dados
além daquele para o qual foram inicialmente recolhidos apresenta um desafio
significativo para este princípio. Em alguns casos, as organizações podem não
saber necessariamente de antemão como a informação vai ser usada pela IA no
futuro. Existe um risco de recolha excessiva de dados além do necessário, “por
precaução”, utilizando avisos excessivamente abrangentes e políticas de
privacidade numa tentativa de “cobrir tudo”. Este tipo de prática permite às
organizações afirmar cumprimento técnico com as suas obrigações, mas é
desonesto e inconsistente com a objectivo base do princípio limitação da recolha.
Mais, acaba por afectar negativamente a capacidade dos indivíduos de exercerem
um controlo significativo sobre a sua informação pessoal.
Por outro lado, a IA pode ser uma alavanca para melhorar a capacidade dos
indivíduos de especificar as suas preferências sobre como a sua informação
pessoal é usada. Por exemplo, não é fora do razoável imaginar serviços que são
capazes de aprender as preferências de privacidade dos seus utilizadores e aplicar
diferentes condições aos dados que estão a ser recolhidos sobre diferentes
indivíduos. Deste modo, a IA pode ser instrumental no estabelecimento de
modelos individualizados, com base em preferências que tem o potencial de
alcançar objectivos de transparência, consentimento e espectativa razoável da lei
da privacidade da informação, de forma ainda mais eficaz que o presente modelo
de aviso e consentimento.
4.6 Limitação da utilização
Logo que a informção pessoal seja recolhida, o princípio da limitação da
utilização pretende assegurar que a informação pessoal só sje utilizada para o
objectivo para o qual foi recolhida. Em geral, as organizações têm permissão para
usar a informação pessoal para objectivos secundários que seriam “razoavelmente
expectáveis” do individuo. Isto levanta a questão de se a informação a ser usada
como dados de entrada para um sistema de IA pode ser considerado um “objectivo
secundário razoavelmente esperável”, dado que em muitas instâncias o resultado
de o fazer pode ser desconhecido ao individuo. Tal como a IA pode sublinhar
padrões e relações nos dados não antecipadas por seres humanos, também pode
revelar os potenciais novos usos para essa informação. Combinando isto com as
questões da especificação do objectivo acima, é provável que as organizações
16
venham a encontrar dificuldades em assegurar que as informações pessoais apenas
são usadas para o objectivo para o qual foram recolhidas ao utilizar tecnologias de
IA.
A premissa de que as pessoas, em particular os jovens ou “nativos digitais”,
estão a tornar menos preocupadas com a privacidade da sua informação pode
provocar uma ideia de que um objectivo secundário razoavelmente expectável para
o uso da informação seria demasiado abrangente. Isto não é necessariamente o
caso. O Boston Consulting Group descobriu que para 75% dos consumidores na
maioria dos países, a privacidade da informação pessoal permanece uma questão
muito importante e que as pessoas em idades entre os 18 e os 24 são apenas
ligeiramente menos cautelosas que as gerações mais velhas.20 Isto indica que as
pessoas não estão, por defeito, menos preocupadas com como a sua informação
pessoal está a ser utlizada, só porque a tecnologia se está a tornar comum, e por
isso podem nem sempre olhar para o uso da sua informação pessoal pela IA como
um objectivo secundário razoavelmente expectável.21 É provável que a IA venha
toldar a distinção entre o que é considerado um objectivo primário e secundário, a
ponto de que a exequibilidade do principio de limitação da utilização pode ser
reconsiderado.
Face ao exposto, os princípios da especificação da fnalidade, da limitação da
recolha e da limitação da utilização são desafiados significativamente pela IA. A
recolha de dados em massa, frequentemente por meios que não são óbvios aos
indivíduos; avisos de recolha vagos ou enganadores; e a presunção de que as
pessoas estão mais confortáveis com o uso secundário da sua informação do que
estão na realidade, leva à situação em que o entendimento actual da privacidade
através destes princípios pode deixar de ser efectivo. Porém, a IA também trás
oportunidades de revolucionar a forma como os princípios tradicionais de
privacidade são concretizados. Por exemplo, treinar um algoritmo de Machine
Learning em quantidades gigantescas de dados num ambiente seguro antes de ser
divulgado pode por sua vez permitir um aumento na segurança dos dados.
A difusão do uso da IA irá requerer que alteremos a forma como aplicamos os
princípios tradicionais de privacidade – se isto constitui uma melhoria ou um
retrocesso nos padrões de protecção da privacidade, é uma questão que ainda não
tem resposta. Ao considerar a privacidade como um elemento base dentro de um
modelo ético para o desenvolvimento da IA, existe potencial para as organizações
melhorarem as práticas de avisos de recolha e permitir aos indivíduos ter uma
interacção mais diferenciada e informada com as organizações sobre o uso – e o
20 John Rose, Christine Barton, & Rob Souza, ‘The Trust Advantage: How to Win with Big Data’, Boston Consulting
Group, Novembro de 2013, disponível em:
https://www.bcg.com/publications/2013/marketing-sales-trust-advantage-win-with-big-data.aspx. 21 Por exemplo, um inquérito do Pew Research Center de 1.002 utilizadores adultos realizado em 2013 concluiu que 86%
tomou medidas online para remover ou mascarar a sua pegada digital, e 68% acreditava que as leis actuais não eram boas
e suficientes na protecção da privacidade online. Ver Anonymity, privacy, and security online, Pew Research Centre, 2013.
17
uso secundário – da sua informação.
4.7 Transparência e consentimento
O nosso entendimento actual da privacidade da informação baseia-se na
capacidade de os indivíduos exercerem escolhas face à informação que terceiros
têm de eles e o que é feito com esta. Porém, a complexidade que rodeia a IA pode
significar que os processos não são claros aos indivíduos cuja informação está a
ser usada, fazendo com que o consentimento realmente informado não seja
atingível. Por exemplo, as técnicas de deep learning podem colocar desafios à
transparência, já que fornecer uma explicação sobre como as conclusões são
retiradas pode por vezes ser difícil mesmo para aqueles que desenvolvem
inicialmente os algoritmos, e ainda mais para indivíduos normais. As organizações
terão dificuldade em ser transparentes nas suas práticas de IA ou em obter
consentimento, se não conseguirem comunicar os processos aos cidadãos.
Existe muitos estudos sobre a emergência de um paradoxo de privacidade, no
qual as pessoas apresentam a preocupação com a sua privacidade, mas em prática
continuam de livre vontade a oferecer a sua informação através dos sistemas e
tecnologias que usam. 22 Uma interpretação deste paradoxo indica que mesmo
estando informados, os indivíduos, frequentemente não tem opção senão entrar
num “contrato inconsciente” para permitir que os seus dados sejam utilizados.23
Neste sentido, muitos sentem-se resignados com a utilização dos seus dados
porque consideram que não há outra alternativa, em vez de terem uma recepção
positiva.24
Uma complexidade incremental das redes e sistemas que usamos,
combinada com uma crescente variedade de métodos de recolha de dados torna
uma resposta binária sim/não ao consentimento no início de uma transação
progressivamente menos significativa no mundo moderno. 25
Enquanto que as
tecnologias de IA provacam muitos destes desafios, estas também têm o potencial
de ser uma solução, ao apresentar novos modos de explicar aquilo que está a
acontecer aos dados de um individuo dentro de cada camada de processamento, ou
permitindo a plataformas individualizadas para que cada pessoa exerça o
consentimento.
Uma via potencial para aumentar a transparência, e também fiscalizar, desafiar
e restringir a tomada de decisões que tenha ocorrido sem envolvimento humano,
está a ser explorada no “direito à explicação”. Um direito deste género
proporciona aos indivíduos uma capacidade de questionar decisões que os afectam,
22 Patricia A. Norberg, Daniel. R. Horne & David A. Horne, ‘The privacy paradox: Personal information disclosure
intentions versus behaviors’, Journal of Consumer Affairs, Vol. 41, No.1, 2007, pp 100–126; Bettina Berendt, Oliver Gunther & Sarah Spiekermann ‘Privacy in e-commerce: Stated preferences vs. actual behavior’, Communications of the
ACM, Vol. 48, No. 4, 2005, pp 101–106. 23 Sylvia Peacock, ‘How web tracking changes user agency in the age of Big Data; the used user’, Big data and society, Vol. 1, No. 2, 2014, disponível em: http://m.bds.sagepub.com/content/1/2/2053951714564228. 24 ICO, Big data, artificial intelligence, machine learning and data protection, 2017, p 24. 25 Ibid., p 30.
18
que tenham sido feitas numa base puramente algorítmica.26 Apesar do desafio
tecnológico actual de o estabelecer, muitas figuras essenciais na comunidade da IA
vêm a transparência das decisões, ou a “explicabilidade” como integral ao
desenvolvimento e manutenção da confiança numa relação em evolução entre
seres humanos e máquinas inteligentes.27
Existe muitos trabalhos realizados para construir algoritmos que possam
explicar como e porque vieram a produzir o seu resultado.28 Com este tipo de
capacidade, a IA pode potencialmente facilitar a transparência, no sentido em que
seria capaz de explicar de forma clara as decisões e ser testada por viés – um
processo que nem sempre é atingível para decisores humanos. Do ponto de vista
legal e das políticas, este direito está a ser explorado no Artigo 22.o do
Regulamento Geral sobre a Protecção de Dados da União Europeia. Ainda não é
claro o quão eficaz este vai ser, com alguns críticos a argumentar que
permanecerão “falhas práticas e conceptuais sérias,” visto que o direito apenas se
aplica a decisões puramente automatizadas, o que raramente é o caso.29
4.8 Discriminação
A privacidade da informação é geralmente considerada como um direito
capacitante, isto significa que muitos dos seus valores estão na sua característica
de capacitar outros direitos humanos a serem concretizados, tais como os direitos
de livre associação e de expressão. As protecções à privacidade também podem
ajudar à protecção contra discriminação atravé de aplicação de controlos sobre
como a informação sobre uma pessoa pode ser recolhida, usada e revelada. Por
exemplo, informação relativa à origem étnica ou orientação sexual de um
individuo tem protecções mais fortes nos termos da lei da privacidade. Isto é
devido à natureza inerentemente sensível da informação, e o seu objectivo é
minimizar o risco de dano que possa ser causado ao tomar decisões com base nisso.
Um dos assuntos éticos mais relevantes na IA, com ramificações imediatas, é o seu
potencial de discriminar, perpetuar vieses e exacerbar desigualdades existentes.
Pelo que os algoritmos são treinados com dados existentes, estes podem acabar por
replicar padrões indesejados de injustiça, devido aos dados que absorveram.30
Além disso, aqueles que criaram os sistemas podem sem saber introduzir os
seus próprios vieses humanos na funcionalidade. Pelo facto de a IA desafiar a
capacidade de a privacidade da informação operar como tem feito historicamente,
26 Toby Walsh, It's Alive! Artificial Intelligence from the logic piano to killer robots, Latrobe University Press, 2017, pp 150-151. 27 Por exemplo, tal como Ruslan Salakhutdinov (Director de investigação de IA na Apple e Professor Associado na
Carnegie Mellon University) em Will Knight, ‘The Dark Secret at the Heart of AI’, MIT Technology Review, 11 de Abril de 2017, disponível em: https://www.technologyreview.com/s/604087/the-dark- secret-at-the-heart-of-ai/. 28 Por exemplo, ver o trabalho de Preservação da Privacidade por Data61 e CSIRO, disponível em
https://www.data61.csiro.au/en/Our-Work/Safety-and- Security/Privacy-Preservation. 29 Lilian Edwards & Michael Veale, ‘Enslaving the Algorithm: From a ‘Right to an Explanation’ to a ‘Right to Better
Decisions’?’, IEEE Security & Privacy, 2017, p 5. 30 Ibid., p 2.
19
a segurança contra a discriminação que a privacidade de informação disponibiliza
como direito capacitante arrisca a ser desmantelado. É interessante como a
tecnologia de IA também tem o potencial de minimizar a discriminação se for
desenvolvida tendo em conta estas questões – ao remover ou apoiar o elemento
humano de muitos processos de tomada de decisão, os vieses humanos inatos
podem ser evitados.
5. Responsabilização e governança
A governança e a supervisão são defendidas na lei da privacidade da
informação para assegurar que as estruturas apropriadas estão estabelecidas para
prevenir um desequilíbrio de poder entre cidadãos e governo. Isto apoia-se no
esforço por parte dos reguladores em garantir que a inforação pessoal está a ser
tratada de forma adequada. Os desafios ao nosso entendimento da privacidade de
informação, sublinhados nas secções acima são replicados no que toca a uma
regulamentação eficaz da tecnologia da IA.
A dificuldade de regular a tecnologia tem sido discutida noutros locais de
forma aprofundada,31 porém, algumas considerações com particular relevância
para a IA e a privacidade de informação incluem:
A tecnologia da IA não está confinada a um estado ou jurisdição, dificultando
a criação e a manutenção de boas práticas de privacidade e governança
transfonteiriças.
Determinar quem controla os dados, onde estão armazenados e quem tem a
responsabilidade por eles é uma tarefa complexa para os reguladores.
A boa governança precisa de ser baseada num entendimento da tecnologia. À
medida que a IA continua a desenvolver rapidamente, o desfasamento de
longa data entre a lei e a tecnologia continua a aumentar enquanto a
complexidade e a ampla aplicação da IA continua a aumentar.
A extensão à qual o governo deve regular a IA, notando que a ausência de um
modelo regulatório para a IA em relação à privacidade de informação, é uma
decisão regulatória em si.
Os bons modelos de governança podem ser utilizados para promover bom
design, estrutura e supervisão de tecnologias de IA, e como estas interagem com a
privacidade. Ao criar um ambiente no qual os direitos e as protecções em geral são
consagradas, a regulamentação pode promover o desenvolvimento de sistemas
automatizados que estão apoiados pela privacidade da informação, de acordo com
o conceito da abordagem à protecção da privacidade, os seja, “Privacidade desde a
concepção”.
31 Ver Michael Kirby, ‘The fundamental problem of regulating technology’, Indian JL & Tech, Vol. 5, 2009.
20
A governan da privacidade não pode ser atingida apenas via controlo do
top-down por parte dos reguladores; aqueles que controlam os dados e os que
criam a tecnologia devem estar envolvidos na concepção de sistemas que reforcem
a privacidade.32
6. Conclusão
Já vivemos num mundo de “megadados”, e a expansão da capacidade
computacional através da IA está em posição de alterar drasticamente o campo da
privacidade da informação. Uma vida conectada através de dispositivos da IoT e
tecnologia de cidades inteligentes – alimentada pela IA – promete um sem número
de potenciais benefícios, incluindo uma utilização mais dinâmica de recursos,
aumento da eficiência e um maior nível de vida. As possibilidades que a
tecnologia de IA pode disponibilizar nos cuidados de saúde, no sistema de justiça e
em serviços governamentais são imensos. Porém, tal como muitas tecnologias
antes dela, a IA apresenta desafios sociais, tecnológicos e jurídicos em relação a
como entendemos e progetemos a privacidade da informação.
Este documento passou por algumas das informações fundamentais
respeitantes às considerações sobre a privacidade da IA, e como a IA irá requerer
que o nosso entendimento do que é informação pessoal seja revista. Porém,
enquanto que os princípios de longa data sobre privacidade de informação tenham
de ser re-conceptualizados, a emergência da IA não significa que a privacidade vai
deixar de ser importante ou de existir. A privacidade oferece um importante
modelo para tomada de decisões éticas sobre como desenvolvemos, utilizamos e
regulamos as novas tecnologias. Também vai continuar a ser integral ao como
mediamos as nossas identidades, desenvolvemos um sentido de identidade e
concretizamos outros direitos incluindo a liberdade de expressão e associação.
Responder às questões de privacidade levantadas pela IA será fundamental para o
seu sucesso a longo prazo.
No futuro, o nosso entendimento da IA e da privacidade pode vir a ser
alterado no seu foco do aspecto da recolha da privacidade de informação para uma
enfatização dos mecanismos de segurança que asseguram que a informação é
tratada de forma ética e responsável assim que for obtida. As tentativas de
controlar ou limitar a recolha de dados tenderão a tornar-se cada vez mais difíceis
à medida que as tecnologias de recolha de dados se tornam omnipresentes. Como
tal, alterar o enfase para a questão de uma “custódia ética de dados” após a recolha
dos dados tem sido proposta como uma opção. Isto irá requerer um compromisso
genuíno com a transparência e a responsabilidade através de boas práticas de
governança.
32 Information Accountability Foundation, Artificial Intelligence, Ethics and Enhanced Data Stewardship, 20 de Setembro
de 2017, p 15.
21
O governo tem um papel importante a desenvolver na criação de um ambiente
em que o compromisso com a criação de uma IA segura e justa pode ser
equilibrado com o progresso tecnológico.33 O equilíbrio certo requer uma
abordagem consultiva e interdisciplinar, pelo que uma regulamentação excessiva,
inapropriada ou mal aplicada pode atrasar a adopção da IA ou não abordar os seus
reais desafios. Aproveitar os modelos de privacidade da informação existentes,
bem como re-imaginar conceitos tradicionais serão uma componente-chave de
construir, usar e regulamentar a IA.
7. Leitura complementar
Uma lista de recursos complementares foi compilada aqui para uma maior
leitura introdutória. Nota-se que estes recursos foram acedidos pela última vez em
Maio de 2018.
- Alex Campolo, Madelyn Sanfilippo, Meredith Whittaker & Kate Crawford, AI
Now 2017 Report, AI Now, 2017, disponível em:
https://ainowinstitute.org/AI_Now_2017_Report.pdf.
- Matt Chessen, ‘The AI Policy Landscape’, Medium, Março de 2017,
disponível em:
https://medium.com/artificial-intelligence-policy-laws-and-ethics/the-ai-landscape
-ea8a8b3c3d5d.
- Matt Chessen, ‘What is Artificial Intelligence? Definitions for policy-makers
and non-technical enthhusiats’, Medium, Abril de 2017, disponível em:
https://medium.com/artificial-intelligence-policy-laws-and-ethics/what-is-artificial
-intelligence-definitions-for-policy-makers-and-laymen- 826fd3e9da3b.
- DL4J Introduction to Deep Learning and Neural Networks resources,
disponível em: https://deeplearning4j.org/ai-machinelearning-deeplearning.
- Information Commissioner's Office, UK, Big Data, artificial intelligence,
machine learning and data protection, 2017, disponível em:
https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-
data-protection.pdf.
- Will Knight, The Dark Secret at the Heart of AI, MIT Technology Review , 11
de Abril de 2017, disponível em:
https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/ .
33 Esta abordagem está actualmente a ser explorada no Regulamento Geral sobre a Protecção de Dados da União Europeia.
Ver o Artigo 35.º