Quase lá: painel sobre ética e IA na Campus Party deixa a desejar na profundidade da análise.
Fonte: YouTube do Governo de Goiás.
O debate sobre Inteligência Artificial chama a atenção de todas as pessoas e, se não chama a sua, talvez deveria chamar.
Inúmeros desempregados, falsificações, enganos, problemas psicológicos e, devido a tudo isso, problemas sociais... Tudo isso pode ter como causa o uso indevido das Inteligências Artificiais.
Tendo em vista esses problemas, a ETOS.IA tem como objetivo, segundo o próprio site, ser um evento que: "discute os impactos da IA em todas as áreas da sociedade, do campo às cidades, da sala de aula à sala de cirurgia."
Declarando-se como "1ª cúpula internacional de ética e inteligência artificial", espera-se que, dentre as discussões da cúpula, todas levem em consideração um fator importantíssimo que, tendo aprendido com um professor, comecei a notar como necessário em debates de caráter moral: o que as coisas são.
Parece uma pergunta genérica, mas como podemos discutir a relação entre humanos e Inteligência Artificial se não sabemos exatamente o que elas são?
Sem essas questões resolvidas, o debate se torna, sob certo aspecto, uma abstração sem chão algum na realidade, como diria o professor Olavo de Carvalho.
Uma vez ouvi de um professor na faculdade que até filosofia as inteligências artificiais seriam capazes de fazer. Não é de se supor que ele tenha uma visão mais "mecanicista" do exercício da filosofia? Assim sendo, de nada adiantaria eu discordar dele sem contestar primeiro o que seria o exercício filosófico e, dependendo, até quem é aquele que o realiza e por que somente o ser humano é capaz de tal.
Porém, como debater sobre este assunto sem ao menos ter algumas coisas — como "o que é um ser humano" — pré-definidas?
Em um dos momentos de uma das palestras deste evento, um dos palestrantes diz algo como: "Voltamos à questão central, que eu queria fazer no final da minha sessão. Na verdade, a IA é muito inteligente, muito culta, mas ela não escolhe seus valores."
De fato, ela não escolhe seus valores e, olhando sob outro aspecto, temos o que aponta o professor Olavo de Carvalho: "O ser humano não apenas compreende a linguagem, mas ele assume a responsabilidade pessoal, psicológica, moral e jurídica pelo que ele está dizendo; por isso mesmo, um ser humano pode ser processado. Você pode processar um computador? Claro que não, então ele não tem responsabilidade. Se ele não tem responsabilidade, ele não tem consciência."
E de fato aí é sinalizado um dos pontos centrais da discussão sobre a diferença entre o algoritmo e o pensamento humano: a escolha pessoal e responsável, de alguém que pode ser culpado por ser alguém/pessoa que escolheu de fato, e não um código que recebeu um input para isso ou calculou algo. A consciência humana é única, e isso caracteriza muito mais o ser humano do que muitas outras coisas que uma máquina também pode fazer, através de algoritmos.
Para uma cúpula de ética, essas questões poderiam ter sido mais trabalhadas, de forma que criassem uma base mais sólida para a discussão. Ainda que no senso comum entenda-se que uma IA não é um ser humano, distinguir de maneira clara essas coisas evidencia o que a IA é: uma ferramenta, complexa, mas nada além disso.
Sabendo o que as IAs são, e deixando clara a distância colossal entre o homem e o algoritmo, aí sim podemos discutir seus impactos de maneira mais clara, sem cairmos em confusões pela aparente similaridade entre o raciocínio do algoritmo e o raciocínio humano.
Correção gramatical:
Gemini ( Google AI )
Imagem:
Fonte: YouTube do Governo de Goiás