Consulta pública
É justamente nesse contexto de reconhecer a complexidade de cenários trazidos pela IA[3] e de distribuição desigual de poderes entre as partes interessadas que as organizações signatárias pedem que sejam considerados os seguintes aspectos relevantes em alguns dos princípios propostos pelo ICDPPC.
- A incerteza do princípio da finalidade: para autores como Zeynep Tufekci[8], as empresas não têm capacidade de informar-nos sobre os riscos que aceitamos, não necessariamente por ma-fé, mas porque os métodos computacionais –que são cada vez mais poderosos, como o machine learning- funcionam como uma caixa preta; ou seja, nem sequer os que têm acesso ao código e aos dados podem saber as consequências que têm um sistema em nossa privacidade. Neste sentido, questões fundamentais como o princípio da finalidade da coleta de dados pode tornar-se obsoleto.
- A dificuldade do consentimento informado: Ademais, ao ser altamente complexo o funcionamento deste tipo de sistema, inclusive para seus próprios desenhadores, pareceria injusto que sejam os indivíduos os que arquem com a responsabilidade de informa-se e entender matérias tão áridas como os efeitos que sistemas tem sobre seus Direitos Humanos. Neste contexto, é importante reconhecer que formas tradicionais de proteção de dados, como o consentimento informado por parte dos indivíduos, já não têm a mesma suposta eficácia em sistemas complexos como os de IA. Além disso, o consentimento informado pode ser utilizado como desculpa para legitimar o impacto à privacidade e à proteção de dados. Por tanto, as obrigações de respeito aos direitos devem ser cumpridas independentemente da obtenção de consentimento. Da mesma forma que acontece em outros âmbitos onde se reconhece a desigualdade de posição entre as partes (direito do trabalho, direito do consumidor, entre outros), o consentimento deve ser considerado como um requisito que se une a outros deveres, não como algo que os substitui.
- é importante que as autoridades hoje existentes (sejam autoridades de proteção de dados ou similares) contem com atribuições autorizadas por lei e, consequentemente, com recursos compatíveis e pessoal capacitado, de forma a poder abordar os complexos cenários de estudo que a IA demanda na proteção de direitos humanos.
- Ainda assim, se deve garantir expressamente a independência das autoridades que fiscalizem os sistemas de IA estudados.
- Respondendo à complexidade dos cenários de IA e à desigualdade de recursos para sua prestação de contas –sobretudo na comparação Norte versus Sul global- devem habilitar-se mecanismos de cooperação transparentes entre autoridades, academia, setor privado e sociedade civil para a discussão de evidências e impactos.
Os Estados que usem sistemas de IA para definir suas políticas públicas, em qualquer de seus âmbitos, deveriam, ainda assim, ter mecanismos de transparência, auditoria e prestação de contas – por comitês independentes- desde o desenvolvimento do conceito de sistema, passando pela licitação, pelas bases de dados que os alimentam, seu desenvolvimento e implementação no tempo.
Lidar com as forças oligopólicas do mercado e seu efeito na IA
Apesar da declaração levar em conta “os riscos potenciais induzidos pela tendência atual de concentração de mercado no campo da IA”, nos parecefundamental reconhecer e assegurar expressamente o equilíbrio de poder de todas as partes envolvidas nos sistemas de inteligência artificial e, particularmente, tornar explícitos os riscos que derivam da posição dominante de um punhado de empresas na oferta de serviços digitais, que se alimentam primordialmente de dados dos usuários, como Facebook, Google, Amazon, entre outros.
Devido a constatação técnica de que para melhorar sua eficácia a IA necessita de grandes quantidades de dados, resulta preocupante o panorama atual do nível de domínio de mercado que têm essas empresas no concernente a exploração de dados pessoais. Em que pese escapar das lógicas tradicionais de avaliação pelas legislações de concorrencial – já que as ofertas de serviços são diversas -, a situação é agravada pela participação de tais empresas em múltiplos mercados verticalmente integrados, assim como pelo reconhecimento público de que algumas destas companhias compartilham dados pessoais de seus usuários com outras empresas[9].
Segurança dos sistemas de IA e de seus resultados
Consideramos de suma importância que, para os sistemas de IA, se adotem mecanismos de segurança digital em conformidade aos standards de direitos humanos. Entendemos que adotar uma perspectiva de direitos para definir a segurança digital implica que no centro da análise não devam estar conceitoscomo “interesse nacional”, “segurança nacional”, “interesse econômico” ousimilares. Ao contrário, a segurança digital deve centrar-se na capacidade das pessoas de se relacionar com a tecnologia de maneira benéfica para suas necessidades e preferências, sem extar expostas desproporcionalmente a riscos de controle de sua autonomia e identidade.
Uma primeira faceta da segurança dos sistemas de IA é a incorporação de práticas que garantam a integridade, confidencialidade e disponibilidade do sistema, de forma tal que os responsáveis pela IA possam garantir a não interferência maliciosa na alimentação de dados, nas escolhas feitas pelo sistema, ou nos propósitos de uso desvirtuados. Não somente, devem assegurar também que as pessoas potencialmente impactadas pelas decisões da IA estejam munidas das ferramentas necessárias para que possam compreender e analisar criticamente esta tecnologia a fim de determinar se seu uso pode contribuir ou prejudicar sua situação de vida. Nesse sentido, não se pode negar que milhões de pessoas na América Latina – e em todo o resto do mundo- vivem em condições de pobreza e baixo nível educacional e que, portanto, seu risco de marginalização pode ser aumentado com a aplicação de IA, sem que tais pessoas estejam em condições de acessar as informações ou entender as consequências de tais sistemas. Esta desigualdade social também deve ser abordada pela ICDPPC como parte de um esforço real para garantir um uso seguro da IA.
:::
[1] Declaration on Ethics and Data Protection in Artificial Intelligence. ICDPPC. October 23, 2018 https://icdppc.org/wp-content/uploads/2018/10/20180922_ICDPPC-40th_AI-Declaration_ADOPTED.pdf
[2] Public consultation – Ethics and Data Protection in Artificial Intelligence: Consultation extended until 15 February 2019. ICDPPC. October 31, 2018 https://icdppc.org/public-consultation-ethics-and-data- protection-in-artificial-intelligence-continuing-the-debate/
[3] Para os fins deste informe, com o nome Inteligência Artificial ou IA nos referimos a todo o todo o espectro de diferentes inteligências e processos baseados em dados: desde a tomada de decisões automatizadas e algorítmicas, passando pelo aprendizado automático (ou machine learning), incluindo também o aprendizado profundo que imita as redes neurais biológicas, entre outras.
[4] Human-Centered AI: Building Trust, Democracy and Human Rights by Design. Donahoe, Eileen. 9 de julio del 2018. Traducción propia. https://medium.com/stanfords-gdpi/human-centered-ai-building-trust-democracy-and-human-rights-by-design-2fc14a0b48af
[5] Algoritmos e Inteligencia Artificial en Latinoamérica. World Wide Web Foundation. Septiembre 2018. http://webfoundation.org/docs/2018/09/WF_AI-in-LA_Report_Spanish_Screen_AW.pdf
[6] Sobre la predicción automática de embarazos adolescentes. Laboratorio de Inteligencia Artificial Aplicada. https://liaa.dc.uba.ar/es/sobre-la-prediccion-automatica-de-embarazos-adolescentes/
[7] Expertos advierten riesgos en uso de big data para prevenir vulneraciones a niños. La Segunda. 14 de enero 2018. http://impresa.lasegunda.com/2019/01/14/A/SN3HIO68/all
[8] The Latest data Privacy Debacle. Zeynep Tufekci. 30 de janeiro de 2018. https://www.nytimes.com/2018/01/30/opinion/strava-privacy.html
[9] Facebook Used People’s Data to Favor Certain Partners and Punish Rivals, Document Show. The New York Times. 5 de dezembro de 2018. https://www.nytimes.com/2018/12/05/technology/facebook- documents-uk-parliament.html?smid=tw-nytimes&smtyp=cur
:::
- Derechos Digitales. América Latina. (derechosdigitales.org)
- Asociación por los Derechos Civiles (ADC). Argentina. (adcdigital.org.ar)
- Hiperderecho. Peru. (hiperderecho.org)
- IPANDETEC. Panama. (ipandetec.org)
- Red en Defensa de los Derechos Digitales (R3D). México. (r3d.mx)
- TEDIC. Paraguay. (tedic.org)
- Fundación Karisma. Colombia. (karisma.org.co)
- Coding Rights. Brazil. (codingrights.org)
- Instituto Brasileiro de Defesa do Consumidor (Idec). Brasil.