fbpx

À beira de um salto evolutivo e tecnológico, a humanidade discute mais uma vez como enfrentar riscos que podem levar à sua extinção

Na Dinamarca, o reconhecimento de voz é usado para diagnóstico rápido de ataque cardíaco e orientações sobre os primeiros socorros. Na Holanda, vacas leiteiras são monitoradas por sensores capazes de indicar mudanças na alimentação e período de ordenha. No Brasil, sistemas autônomos detectam tumores malignos e sugerem tratamento, utilizando os registros de milhares de casos similares. Órgãos de segurança, nos EUA, usam ferramentas de reconhecimento facial para identificar suspeitos nas imediações da Casa Branca.

Em comum, estes sistemas compartilham as bases do que o mundo espera da Inteligência Artificial (IA) e de Big Data. Assistimos apenas aos primeiros passos. Robôs capazes de aprender e tomar decisões como humanos estão distantes e dependem de avanços tecnológicos ainda nem pensados. Os desafios éticos, entretanto, já se fazem presentes.

As mesmas ferramentas tão bem-intencionadas são incorporadas em sistemas com objetivos não tão bem-intencionados. Seguradoras usam os algoritmos de identificação de doenças para limitar aos “saudáveis” o acesso a apólices. O monitoramento animal gera protocolos de exploração ainda mais cruéis do que os já existentes. E é melhor nem perguntar sobre qual base de dados se apoia o programa de identificação de suspeitos da Casa Branca.

O exemplo norte-americano é simbólico da relação dúbia dos Estados com as novas tecnologias. Depositários das expectativas de proteção e segurança de seus cidadãos, os governos nacionais rapidamente avançaram no incentivo ao desenvolvimento de ferramentas militares voltadas para a vigilância, defesa e dominação.

A percepção do potencial estratégico da IA foi rápida. Estamos falando em um poder comparável ao das armas nucleares, com capacidade para equilibrar (ou desequilibrar) o jogo das grandes potências.

Muito além das discussões prosaicas sobre geladeiras inteligentes, discute-se planos de hegemonia mundial. Estados Unidos, Rússia, China e União Europeia organizam-se, ou melhor, armam-se.

Vladimir Putin reconheceu que “aquele que se tornar líder nesta tecnologia, será também líder do mundo”, e colocou como objetivo para a Rússia ter suas Forças Armadas com 30% de equipamentos autômatos até 2022. A Conselho de Estado Chinês determinou investimentos pesados em pesquisa e desenvolvimento de IA aplicada à Defesa. Nos Estados Unidos, a aliança entre governo e militares injeta bilhões em pesquisa e, mais recentemente, adotou posturas mais agressivas. A prisão da vice-presidente da Huawei foi um recado diplomático bastante claro ao mundo e um fato visível em uma guerra eletrônica invisível.

A União Europeia está atrás em investimento privado. Enquanto um total de US$ 3,6 bilhões foram destinados pelo setor, em 2017, a Ásia despejou US$ 11 bilhões e a América do Norte US$ 21,2 bilhões.

A Europa é, no entanto, a sede de uma das mais fortes comunidades de pesquisadores de ponta e tem uma indústria tecnológica avançada, com especialização em robótica, espaço, química e física quântica. Sua liderança no campo político é ainda maior e, por isso, está à frente de diretrizes como a recentemente implantada General Data Protection Regulation (GDPR), que inspirou o mundo.

O continente notabilizou-se este ano por lançar um manifesto congregando o mundo a trabalhar pelo desenvolvimento de tecnologias voltadas para o desenvolvimento humano. O Parlamento Europeu divulgou, no primeiro semestre, suas políticas e diretrizes relacionadas à IA. O documento é um importante marco, por suas implicações no fluxo de investimento destinado à pesquisa e na elaboração de políticas públicas – como a implantação da GDPR este ano.

O comunicado reconhece ser a IA uma das mais estratégicas tecnologias do século 21, comparável à eletricidade no passado. Por isso a importância de uma abordagem comum voltada para o desenvolvimento e o uso da IA para o bem e para todos. É a visão Human-First, cada vez mais adotada, discutida e compartilhada.

Esta visão mais humana desdobra-se em várias iniciativas. Uma das mais importantes é a preocupação com a inevitável perda de empregos gerada pelas novas tecnologias e as incertezas em relação aos novos postos criados. A União Europeia propõe preparar a sociedade como um todo, ensinando e capacitando de crianças a idosos. É categórica em defender que trabalhadores em setores vulneráveis à extinção devem receber todas as oportunidades possíveis para adquirir as habilidades e conhecimentos necessários à transição para os novos setores.

Como desdobramento, propõe o aumento no número de pessoas treinadas em sistemas de IA e o encorajamento à diversidade e interdisciplinaridade. As transações entre pessoas, máquinas e empresas devem ocorrer de forma transparente, justa e dentro da lei. O objetivo final é pôr a força da IA a serviço do progresso humano.

O futuro da vida

Iniciadas na Europa as reflexões e discussões sobre o futuro da vida se estenderam rapidamente por todos os locais do globo. Há quem diga que o potencial econômico das aplicações deve continuar balizando o investimento de esforço humano e recursos no desenvolvimento da biotecnologia e dos algoritmos aspirantes ao status de IA. De outro lado, há quem pense que se trata de um caminho sem volta, na medida em que o ápice de tais aplicações pode significar capacidades e aspirações sobre-humanas.

Inúmeras questões permanecem em aberto. Alcançaremos o que pode vir a ser chamado de inteligência genuinamente artificial? O conjunto das inteligências que nos torna capazes de abstrair, imaginar, hipotetizar, investigar o que pode vir a ser? Vir a ser um fato científico como discutido por Fleck ou um fato da vida cotidiana ou da política?

Grupos de estudiosos, executivos e filantropos têm se organizado em torno de instituições como o “Future of Life Institute” buscando fomentar a visão de que seremos e que, justamente por isso, é preciso discutir o processo de desenvolvimento e não os produtos do mesmo. Sediado em Boston (EUA), o instituto reúne figuras notáveis como o cofundador da Tesla Motors, Elon Musk, o ator e divulgador científico Morgan Freeman, e contava com o falecido físico Stephen Hawking. Entre as ideias compartilhadas pelos seus membros está leitura de que a evolução tecnológica se deu ao longo de milênios a partir da experimentação, aprendizado e erros. Esses últimos, os erros, seriam irreversíveis o campo de IA para nós, humanos, já que, nesse caso, estaríamos ultrapassados.

De tempos em tempos o “Future of Life” divulga cartas abertas se posicionando acerca de questões na fronteira do conhecimento, nesse campo. Uma das mais famosas discutiu as armas autônomas – desejadas vedetes das forças armadas não apenas da Rússia, mas de todas as grandes potências. Estudiosos de Robótica e IA pontuaram os riscos do desenvolvimento desses dispositivos, considerados marcos da terceira revolução bélica – após a introdução da pólvora e das armas nucleares.

Para os signatários do documento, uma corrida pelo desenvolvimento deste tipo de armamento colocaria a humanidade em risco de extinção. E há muitas outras formas de a IA ser usada para o bem, sobretudo na proteção de civis.

Outro manifesto resume o atual momento de reflexão: apontou prioridades para que a pesquisa em IA seja sólida com foco nas pessoas. Ao longo dos anos a área tem buscado desenvolver agentes inteligentes, ou seja, sistemas que buscam perceber o ambiente e atuar nele em favor dos humanos.

É almejada a habilidade das máquinas em tomar boas decisões, fazer planos e inferências. Os benefícios são inúmeros, a pequena lista a abrir este texto é apenas uma mostra.

Torna-se necessário dedicar-se não apenas a aumentar a capacidade da IA, mas assegurar-se de que ela fará o que se espera dela – na visão dos apoiadores, maximizar o bem-estar da sociedade.

As expectativas depositadas na Inteligência Artificial e Biotecnologia crescem ano após ano, notícia após notícia divulgando suas conquistas. Não foi diferente em 2018. A curva de crescimento a ser observada já é outra e mais perigosa: a percepção dos riscos à sobrevivência humana. Governos, instituições e empresas têm a oportunidade, talvez a última, de por as pessoas à frente da tecnologia. Para nós, que vivemos nesse tempo, seria o renascer da Esperança para 2019, desde 2018, ou 2017, ou 2016

Compartilhe este artigo:
Paula Oliveira

Paula Oliveira

Faz doutorado na USP, onde estuda o Comportamento Organizacional, especialmente na interseção entre os campos de Data Science e Tecnologia da Informação e Comunicação (TICs). É Mestre e Graduada em Estatística pela UFMG, concluiu o Executive MBA na Fundação Dom Cabral e o Post MBA na Kellogg School of Business, em Chicago e Business Ethics and Corporate Social Responsibility na The City University of New York. Ver perfil completo >>

Ver mais artigos