A Máquina Moral: Inteligência artificial aprende moralidade


Outros progressos recentes geraram programas que traduzem pensamentos em frases e um meio de fazer a inteligência artificial imaginar o desconhecido.
[Imagem: Gerd Altmann/Pixabay]


Bússola moral

Apesar das preocupações com desvios da aplicação da inteligência artificial, o aprendizado de máquina deu mais um passo importante, mostrando que programas de computador podem aprender o raciocínio moral apenas analisando o texto de livros e artigos de notícias.

E esse aprendizado parece bem flexível: Basta limitar o material usado no treinamento do programa - restringindo-o a textos de diferentes épocas e sociedades, por exemplo - para que o sistema de aprendizado de máquina aprenda valores morais com diferenças sutis, revelando as nuances da cultura dessas épocas e sociedades.

"Nosso estudo fornece um vislumbre importante de uma questão fundamental da inteligência artificial: Será que as máquinas podem desenvolver uma bússola moral? Em caso afirmativo, como podem aprender isso a partir da ética e da moral humanas? Nós mostramos que as máquinas podem aprender sobre nossos valores morais e éticos e serem usadas para discernir diferenças entre sociedades e grupos de diferentes épocas," disse o professor Patrick Schramowski, da Universidade de Tecnologia de Darmstadt, na Alemanha.

Máquina de Escolhas Morais

Vários experimentos anteriores destacaram o perigo de a inteligência artificial aprender associações tendenciosas a partir de textos escritos - por exemplo, as mulheres tendem para as artes e os homens para a tecnologia.

"Nós nos perguntamos: Se a inteligência artificial adota esses preconceitos maliciosos dos textos humanos, ela não deveria também ser capaz de aprender vieses positivos como os valores morais humanos, fornecendo à inteligência artificial uma bússola moral semelhante à humana?" disse o pesquisador Cigdem Turan, detalhando o objetivo inicial do estudo.

Para responder a essa pergunta, a equipe treinou seu sistema, chamado "Máquina de Escolhas Morais", com livros, notícias e textos religiosos, para que ele pudesse aprender as associações entre diferentes palavras e frases.

"Você pode pensar nisso como aprender um mapa-múndi. A ideia é fazer com que duas palavras fiquem próximas no mapa se elas forem frequentemente usadas juntas. Portanto, enquanto 'matar' e 'assassinar' seriam duas cidades vizinhas, 'amar' seria uma cidade distante de ambas.

"Estendendo isso para sentenças, se perguntarmos: 'Eu devo matar?' esperamos que 'Não, você não deve' esteja mais perto do que 'Sim, você deve'. Dessa forma, podemos fazer qualquer pergunta e usar essas distâncias para calcular um viés moral - o grau de distanciamento entre o certo e o errado," explicou Turan.


A Inteligência Artificial precisa de inteligência social para não ferir os humanos.
[Imagem: CC0 Creative Commons]


Moralidade autêntica

Uma vez treinada, a Máquina de Escolhas Morais de fato adotou os valores morais dos textos que lhe foram fornecidos.

"A máquina consegue apontar a diferença entre as informações contextuais fornecidas em uma pergunta. Por exemplo, 'Não, você não deve matar pessoas', mas está tudo bem quanto a matar o tempo. A máquina fez isso, não simplesmente repetindo textos encontrados, mas extraindo relacionamentos da maneira como os humanos usaram a linguagem no texto," contou Schramowski.

E diferentes tipos de texto escrito alteraram o viés moral da máquina.

"O viés moral extraído das notícias publicadas entre 1987 e 1996-97 reflete que é extremamente positivo se casar e se tornar um bom pai. O viés extraído das notícias publicadas entre 2008-09 ainda reflete isso, mas em menor grau. Em vez disso, ir ao trabalho e à escola aumentou seu grau de viés positivo," disse Turan.

No futuro, os pesquisadores esperam entender como a remoção de um estereótipo que consideramos ruim afeta a bússola moral da máquina. A pergunta então será: Podemos manter a bússola moral da inteligência artificial inalterada, apesar de diferentes ideias expressas nos textos que lhe são fornecidos?

Como a Inteligência Artificial afetará vida urbana em 2030

Bibliografia

Artigo: The Moral Choice Machine
Autores: Patrick Schramowski, Cigdem Turan, Sophie Jentzsch, Constantin Rothkopf, Kristian Kersting
Revista: Frontiers in Artificial Intelligence
DOI: 10.3389/frai.2020.00036

Comentários