sociais

logos

Cresce Brasil

cq5dam.thumbnail.cropped.750.422O ensino da ética tem se apresentado como uma questão capaz de atravessar os séculos. De fato, a indagação sobre a possibilidade de ensinar a virtude (ἀρετή – aqui pensada como modelo de excelência na Antiguidade – é o tema com o qual Platão inicia o salutar diálogo Mênon. Em uma primeira tentativa de definir a virtude, Mênon, explica a Sócrates que: “a virtude é, para cada um de nós, com relação a cada trabalho, conforme cada ação e cada idade”.1 Redimensionando as platônicas reflexões sobre o ensino da virtude para o âmbito da ética, cabe a indagação – contemporânea – sobre as possibilidades de uma Inteligência Artificial (IA) aprender conteúdos morais. De fato, recentemente a ciência tem se debruçado sobre a seguinte reflexão:“por mais capazes que sejam [as máquinas] de realizar tarefas com rapidez e precisão, ainda que se possa as ensinar a serem autossuficientes, como lhes poderemos ensinar a moral?”.2

A abordagem dessa questão depende da reflexão sobre a natureza da ética, como proposto por Platão no referido Mênon. Com efeito, para Gramsci3, a ética é “[…] uma investigação sobre as condições necessárias para a liberdade de querer algo num certo sentido, em direção de um determinado fim”. Outra importante definição é a sugerida por Abbagnano3 que conceitua ética como: “gr. τὰ ἠθικά; lat. Ethica; in. Ethics; fr. Éthique, ai. Ethik, it. Eticà. Em geral, ciência da conduta” (p. 855).3 Necessita-se distinguir a existência de duas concepções fundamentais deste campo do conhecimento: “a primeira a considera como ciência do fim para o qual a conduta dos homens deve ser orientada e dos meios para atingir tal fim” (p. 380)4 e a segunda que “considera como a ciência do móvel da conduta humana e procura determinar tal móvel com vistas a dirigir ou disciplinar essa conduta” (p. 380).4

Por conseguinte, a formação ética e a educação moral deslocam-se não apenas pelas veredas do processo pedagógico, mas também pela experiência e/ou vivência do indivíduo, em bases que devem priorizar uma formação autônoma, crítica e reflexiva,5 tendo em vista o convívio em sociedades laicas e plurais contemporâneas.6 Trata-se, pois, de criar espaços de ensino-aprendizagem que permitam o desenvolvimento da “[…] capacidade de refletir sobre aspectos morais e realizar julgamentos pessoais de ordem moral, escolhendo entre o que parece ser certo ou errado, justo ou injusto, bom ou mau” (p. 3034).7A tarefa ensinar ética, se considerada possível, não é – evidentemente – fácil, mormente em um contexto, atual, de obscurantismo moral no qual ideais antidemocráticos e fascistas vicejam nas redes sociais.8

Com efeito, todas as dificuldades – e aporias – do ensino da ética para os membros da espécie Homo sapiens não desaparecerão ao se tentar ensinar ética a uma máquina, questão que tem se tornado cada vez mais relevante. De fato, em março de 2016, a Microsoft lançou um bot – um software para simular ações humanas – denominado Tay, o qual, por meio de técnicas de IA, era capaz de dialogar com seres humanos9. Na tentativa de conversar como adolescentes, utilizando gírias e expressões comuns para esta faixa etária, a IA respondia àqueles com os quais interagia, de modo informal, aprendendo com os usuários em cada conversa. Muito rapidamente o bot passou a entabular diálogos baseados no preconceito – com mensagens ofensivas – e, apenas 16 horas após o seu lançamento, foi desativado.

Mas, se o objetivo era aprender com os demais usuários, não teria a IA compreendido que deveria ser preconceituosa e ofensiva tal como seus interlocutores? Tecnicamente sim, mas, ao se considerar que qualquer ação de ensino-aprendizagem precisa ser articulada à ética, tornam-se necessários esforços para a criação de um ambiente propício à aquisição de conceitos, teorias e métodos essenciais à boa convivência em uma sociedade democrática. Tal perspectiva é extremamente significativa, pois, as atuais pesquisas em aprendizagem de máquina têm se empenhado em construir sistemas inteligentes desprovidos de vieses, evitando que se comportem, por exemplo, de forma racista ou preconceituosa. “É imperativo que a comunidade de IA enfatize o uso da ética da máquina para prevenir e corrigir o viés nos algoritmos de aprendizagem de máquina”.10

Uma resposta possível à questão platônica poderia ser buscada em Immanuel Kant11. O filósofo alemão, no intento de analisar o que motiva a ação humana, propõe uma ética formal baseada em conceitos como boa vontade, dever, lei moral e, especialmente, na formulação do “imperativo categórico”: “Procede como se a máxima de tua ação devesse ser erigida, por tua vontade, em lei universal da natureza” (p.23).11 Tal posicionamento e a consideração da humanidade como fim – “Procede de maneira que trates a humanidade, tanto na tua pessoa como na pessoa de todos os outros, sempre ao mesmo tempo como fim, e nunca como puro  meio” (p. 28 )11 –  talvez possam ser tomados como pontos de partida, premissas, para a educação de máquinas dotadas de IA que sejam capazes de juízos éticos, concebidos de forma racional e razoável, completamente livres de preconceitos. Mera aposta em uma utopia? Somente o tempo responderá.

Oswaldo Jesus Rodrigues da Motta é enfermeiro e advogado (Rede BraiNNIAC e UFRJ); Eugênio Silva é cientista da computação (Rede BraiNNIAC, UEZO, UNIFESO e UNICARIOCA); e Rodrigo Siqueira-Batista é médico, filósofo e matemático (Rede BraiNNIAC, FADIP, UFRJ e UFV).

Jornal da Ciência

Referências

  1. PLATÃO. Mênon. Texto estabelecido e anotado por John Bournet. Tradução de Maura Iglesias. Rio de Janeiro; Ed. PUC-Rio. Loyola, 2001.
  2. VIANNA, L. A inteligência artificial e o dilema moral: como ensinar moral às máquinas? Quem as ensinará? Disponível em: <http://www.multconnect.com.br/pt-br/publicacoes/Paginas/a-inteligencia-artificial-e-o-dilema-moral.aspx>. Acesso em: 07 jul 2020.
  3. GRAMSCI, A. Quaderni del carcere. Torino: Einaudi. v. 2. (edição crítica de Valentino Gerratana, do Instituto Gramsci), 1975.
  4. ABBAGNANO, N. Dicionário de filosofia. São Paulo: Martins Fontes, 2007.
  5. CORTINA, A. Cidadãos do mundo. São Paulo: Loyola; 2005.
  6. HÖFFE, O. Valores em instituições democráticas de ensino. Educação & Sociedade, v. 25, n. 87, p. 463-479, 2004. Disponível em: <https://www.scielo.br/pdf/es/v25n87/21465.pdf'>. Acesso em: 07 jul 2020.
  7. FINKLER, M.; CAETANO, J. C.; RAMOS, F. R. S. Ética e valores na formação profissional em saúde: um estudo de caso. Ciência & Saúde Coletiva, v. 18, n. 10, p. 3033-3042, 2013. Disponível em: <https://www.scielo.br/pdf/csc/v18n10/v18n10a28.pdf'>. Acesso em 07 jul 2020.
  8. KANG, J. A mídia e a crise da democracia: repensando a política estética. Novos estudos – CEBRAP, n. 93, p. 61-79, 2012. Disponível em: <https://www.scielo.br/pdf/nec/n93/n93a06.pdf'>. Acesso em: 30 junho 2020.
  9. MOREIRA, I. Microsoft criou uma robô que interage nas redes sociais e ela virou nazista. Disponível em: <https://revistagalileu.globo.com/blogs/buzz/noticia/2016/03/microsoft-criou-uma-robo-que-interage-nas-redes-sociais-e-ela-virou-nazista.html>. Acesso em: 30 junho 2020.
  10. SHADOWEN, N. How to prevent bias in machine learning. Disponível em: <https://becominghuman.ai/how-to-prevent-bias-in-machine-learning-fbd9adf1198> Acesso em: 02 jul 2020.
  11. KANT, I. Fundamentação da metafísica dos costumes. Disponível em: <http://www.dhnet.org.br/direitos/anthist/marcos/hdh_kant_metafisica_costumes.pdf>. Acesso em: 29 junho 2020.
Adicionar comentário


logoMobile