Ferramentas criadas por nós como humanidade resultam em implicações na maneira como lidamos com elas e com seus efeitos sobre nossa espécie. Isso é verdade para todas as nossas criações e, apesar de esse impacto não ocorrer da mesma forma nem com a mesma magnitude em toda criação, de alguma forma, ele ocorre. Como exemplo, podemos pensar no desenvolvimento de armas de fogo. De forma direta e simplista, podemos compreender as armas como ferramentas que dependem exclusivamente do uso que fazemos delas, entretanto, sua existência em si, independente do seu uso, implica questões morais, políticas, econômicas, culturais, etc. Ou seja, independentemente da maneira como utilizamos essas ferramentas, ou se as utilizamos, sua simples existência, mesmo que não intencional, já resulta em consequências irreversíveis na forma como nos organizamos, comportamos, planejamos, tememos, sentimos etc. Em suma, na maneira como se faz a existência humana após o surgimento, nesse caso, das armas de fogo.
Desse mesmo modo, a simples (apesar de profundamente complexa) existência das IAs já resulta em implicações que vão para além da maneira como somos afetados. O Ialoceno se propõe, então, como consequência de sua própria forma de ser, a funcionar não apenas como instrumento de análise, mas também como fornecedor de ferramentas – decorrente da própria leitura pela ótica do Ialoceno – que auxilie na compreensão mais aprofundada do modo como lidamos com essa tecnologia. Nesse momento, então, vamos nos dedicar a refletir e desenvolver ideias acerca da postura ética no Ialoceno, decorrente da forma como as IAs se apresentam a nós, como interagimos com elas e quais as preocupações emergentes dessa relação.
ACERCA DA ÉTICA NO IALOCENO
Podemos definir que a história da humanidade é a história da sua relação com a natureza. Assim como nos adaptamos aos diferentes lugares que habitamos, também os transformamos para que atendam melhor às nossas demandas. Então, podemos dizer também que a história humana é a história da manipulação da natureza pela humanidade. A domesticação de animais e plantas, arado, escrita, medicina, energia a vapor, energia elétrica, aviação, ondas de rádio, fusão nuclear, internet, entre outros, são alguns exemplos dessa nossa capacidade.
Sempre que alguma nova maneira de controlar o meio à nossa vontade surge, com ela desenvolve-se uma forma de identificarmos essa transformação. Sua identidade pode se desenvolver pela forma como ela ocorre, ferramentas associadas a ela, nossa relação com ela ou seu efeito. A domesticação de animais, por exemplo, pode ser representada pelo pastor. O arado por si só já é um objeto identificável e dotado de identidade. A escrita se apresenta como símbolos metodicamente organizados e compreensíveis dadas instruções prévias, mas também pode ser representada hoje por livros. A medicina possui um símbolo próprio derivado (no ocidente) no caduceu de Hermes, mas pode ser também identificada pela cruz vermelha ou por instrumentos do seu labor como o estetoscópio. A energia a vapor frequentemente é representada pelos trens movidos por ela, mas também pode ser representada por um forno com câmara de pressão. A energia elétrica é representada por raios ou por instrumentos pelos quais ela é transportada, como postes, fios elétricos ou caixas de luz. A aviação é representada e reconhecida pela sua criação primeira de transporte, o próprio avião, mas também pode ser representada pelas asas do mesmo avião. As ondas de rádio são representadas pela sua forma de propagação (sequência de ondas crescentes) ou pelos seus instrumentos de captação e reprodução como antenas e o próprio equipamento de rádio. A fusão nuclear é facilmente reconhecida pelo símbolo da radiação ou, nos casos de armas de guerra, pelo cogumelo nuclear (resultado direto do seu uso). A internet é representada frequentemente pelo resultado direto do seu uso popular, a globalização, ou seja, pelo globo terrestre circundado por linhas aéreas. Em suma, toda nova invenção possui uma “cara”, um símbolo reconhecível e com sentido que é fruto de seu uso, interpretação, impacto ou modos de manuseio.
As inteligências artificiais, entretanto, se encontram em um lugar diferente de tudo que já criamos até agora. Ela não possui uma “cara” para além do seu próprio nome, ou a abreviação dele – IA. Poderíamos pensar que a internet ou o rádio tenham encontrado o mesmo problema no seu surgimento, entretanto, mesmo essas criações imperceptíveis aos nossos sentidos, precisavam de um meio físico que passou a existir junto da sua criação, como o rádio e os computadores.
Aqueles mais atentos podem pensar que os computadores já existiam antes da internet, entretanto, a infraestrutura e modos de uso dos computadores só se popularizaram após o surgimento dela, então suas representações se misturam no imaginário, bem como a ideia de uma conexão “invisível” entre os computadores do mundo, remetendo quem pensa nela a uma teia interconectada de computadores ao redor do mundo, daí seu símbolo. Mas as IAs encontram um novo contexto, onde computadores já estão estabelecidos na cultura humana, conceitos como a “nuvem” já estão difundidos e possuem identidade, por isso, essas representações não podem mais ser associadas exclusivamente às IAs. O “corpo” da IA não é somente dela, esse meio físico pelo qual ela existe já possui uma identidade e foi apropriado por outras invenções humanas como parte do seu existir.
A forma como as IAs se apresentam também é muito diversa (imagem, texto e algoritmo, por exemplo) e distinta entre si, tornando difícil imaginar uma identidade derivada da sua utilização, bem como os resultados dessas aplicações. As diversas instituições que as criam também têm símbolos distintos, destacando-se, cada uma, pela sua forma de uso dessa tecnologia.
As IAs surgem com um problema de identidade no imaginário do usuário, o que resulta, por sua vez, em problemas na forma como nos relacionamos com elas. Logo surge uma pergunta importante: qual, então, é o “rosto” da IA? Atualmente, a resposta direta é que ela não tem “rosto”. A sigla IA é utilizada junto de imagens que misturam o cérebro ou redes neurais com chips ou engrenagens, entretanto, esses símbolos não passam de tentativas de representar a forma como algumas delas funcionam, além de serem tanto diversos quanto inconsistentes. Existe, porém, alguma implicação dessa falta de um símbolo, “rosto” ou “corpo” que materialize essa “coisa” que é a IA? E essa ausência pode ter impacto sobre nós?
Para responder a essa questão, vamos explorar os estudos éticos desenvolvidos por Emmanuel Levinas. Segundo o autor, a ética é a manifestação primeira do espírito humano, anterior à ontologia, e decorre do encontro com o outro em sua radical alteridade. Isso ocorre por meio do rosto do outro, que não é apenas a aparência da sua forma física, mas a expressão viva de uma vulnerabilidade que me convoca à responsabilidade. É pela presença do outro que me reconheço como sujeito ético. Sou interpelado por sua existência e, antes mesmo de qualquer escolha racional, sou chamado a agir de forma responsável pelo outro. Antes que o ato de matar, como exemplo, seja compreendido por mim como algo errado pelo caminho da razão, surge bruscamente o rosto de quem será morto, ele promove em mim o apelo para que não mate, antes mesmo do raciocínio. A ética da alteridade, nesse sentido, revela que o fundamento da subjetividade está na responsabilidade incondicional pelo outro. Sem o outro, não há, portanto, condição para se fazer o agir ético.
A ética como a manifestação humana primeira implica, pois, sua relação com qualquer outra manifestação. Aqui surge, então, a necessidade de uma urgente investigação da relação entre ética e IA. Como apontado acima, a ausência de “rosto” nelas resulta, em primeira instância, na não necessidade de agir eticamente por parte de quem a manipula, uma vez que somente pela percepção do outro seríamos impelidos a agir. O conceito desenvolvido por Levinas aborda a relação entre seres humanos, logo, a ausência de um rosto nas máquinas não seria uma questão nova, uma vez que qualquer ação que ocorra de forma mecânica e isolada teria o mesmo efeito, entretanto, o outro nesse contexto seria aquele que é impactado pela IA, ou seja, o usuário. O que se apresenta como novidade, aqui, é o fato de nem usuários nem programadores se conectam através das IAs pela sua própria característica, uma vez que a relação entre desenvolvedor e usuário é impessoal, atravessada por uma distância física e logística. O desenvolvedor, nesse contexto, se relaciona muitas vezes somente com a IA. Mesmo quando na relação com humanos em um modelo empresarial, a estrutura hierárquica guiada por decisões de terceiros não representa uma conexão que condicione o agir ético. O trabalho, portanto, se torna uma fragmentada parte alienada da estrutura que resulta no impacto sobre os usuários.
O impacto dessa tecnologia, então, apesar de real, não é evidente de forma direta. Quando alguém usa uma IA para produzir uma imagem, por exemplo, as relações algoritmo-probabilísticas ficam inacessíveis (a depender dos modelos de linguagem) até mesmo para quem programa, por exemplo, deep learning. Tanto o usuário quanto o programador não estão diante de rostos quando utilizam as IAs, logo, não são impelidos a agir eticamente. Apesar de os efeitos do seu uso resultar em implicações éticas, as decisões e maneiras pelas quais ocorrem não têm por base uma necessidade de agir eticamente.
As IAs, entretanto, não se caracterizam apenas como programas de computador ou ferramentas digitais tais como conhecemos até então. Sua peculiaridade encontra-se, também, na forma como os usuários interagem. Uma ferramenta digital como conhecemos antes da IA, funciona como um meio pelo qual a interação ocorre. Um site é abastecido por pessoas e consumido por pessoas. Uma rede social conecta usuários que a abastecem com conteúdos. Ferramentas de pesquisa que possibilitaram o acesso a “qualquer conhecimento de forma imediata”, mas necessitavam que esse conhecimento fosse fornecido por alguém e encontrado por outro alguém. Mesmo de forma indireta, o usuário compreende que tais informações foram construídas e disponibilizadas por alguém.
Quando surgiram as primeiras IAs, elas atuaram manipulando e direcionando (através dos algoritmos) conteúdos produzidos e abastecidos, ainda, por humanos. As IAs generativas, entretanto, possuem como característica inédita a capacidade de produzir respostas que não passaram por humanos em outra via. Sabemos que todas as respostas que elas possam vir a gerar são, de algum modo, uma cópia de algo que um humano já tenha produzido, ou seja, nada que ela produz é de fato original, seu banco de dados é abastecido, primeiramente, com produções humanas. Entretanto, a própria maneira como essa interação ocorre já caracteriza uma mudança na forma como somos impactados por elas, uma vez que essa interação deixa de ser mediada por uma máquina e passa a ser com uma máquina que não possui corpo nem rosto. Não somos mais, então, impelidos a agir de forma ética.
Nossa expressão primeira, a ética, perde espaço e atrofia-se. Quando usamos IAs, qualquer consequência proveniente de diálogo (com ela) ou escolha (através dela) é refletida somente quando diante da possibilidade de que um outro venha a conhecê-las. Só então somos confrontados. Nesse momento passamos a refletir sobre o assunto de forma crítica, o que, por sua vez, transforma esse espaço em um ponto de vulnerabilidade. Como um retrato distorcido de um agir irrestrito. Uma caricatura da irresponsabilidade do pensamento desprovido de sua implicação ética no social.
Assim como outras características do Ser do humano, a ética se desenvolve na prática. Quando agimos em sociedade somos confrontados, a todo momento, com decisões que impactam (em diferentes níveis) outras pessoas. Ao agirmos com recorrência no coletivo, somos confrontados com as condições para o surgimento do fazer ético diante de rostos. Quando perdemos esse espaço e transformamos o modo como convivemos, necessariamente transforma-se também a maneira como a ética se desenvolve.
A magnitude do impacto das IAs sobre a humanidade, entretanto, se mostra inédita na realidade contemporânea, uma vez que nunca antes uma tecnologia esteve presente em tantos níveis da sociedade humana influenciando com a intencionalidade de quem as desenvolve para determinados fins. Somos bombardeados por propagandas e informações que chegam a nós por algoritmos. Pesquisamos através de ferramentas que se utilizam de algoritmos para indicar respostas. Produzimos conteúdos audiovisuais e materiais de leitura através de modelos generativos. Buscamos respostas para inquietações e nos aconselhamos com esses mesmos modelos generativos. Entretanto, nenhuma dessas atividades nos faz ser impelidos a agir eticamente. Essa dinâmica transforma a maneira como nos desenvolvemos eticamente.
Toda criação humana carrega consigo um impacto inevitável sobre aqueles que a testemunham e dela participam. Seja esse impacto benéfico ou prejudicial, as respostas humanas dependem do modo como se compreende a natureza e o alcance daquilo que foi criado. O surgimento de uma tecnologia, por si só, não é sinônimo de ameaça. O perigo nasce quando seu uso e seu desenvolvimento se dão sem reflexão. Sobretudo, quando ela deixa de ser aprimorada com vistas à melhoria da condição humana.
A partir dessa perspectiva, discutimos a ética do Ialoceno. Longe de ser inferior a qualquer ética anterior, ela apresenta características próprias e singulares, que exigem um modo igualmente singular de pensar. Tal reflexão precisa considerar as condições específicas em que as IAs existem, são utilizadas, afetam as pessoas e moldam a compreensão que temos da realidade. Entre elas, a ausência de corpo e identidade da IA, assim como a ausência de interação humana direta e de um “rosto” capaz de interpelar eticamente, de despertar imediatamente a responsabilidade pelo outro.
Essa ausência, contudo, não deve se converter em atrofia ética. Ao contrário, demanda a construção deliberada de formas de relação que permitam ao ser humano desenvolver-se eticamente mesmo sem a presença física do outro que o despertaria espontaneamente à responsabilidade.
REFERÊNCIAS BIBLIOGRÁFICAS:
LEVÍNAS, Emmanuel. Totalidade e infinito: ensaio sobre a exterioridade. Tradução de José Pinto Ribeiro. Lisboa: Edições 70, 1980.