domingo, 18 de abril de 2021

Mind&Bytes: E@D 3D

 

Dia 15 de abril, alguns dos nossos alunos de 5º ano puderam mostrar o que andaram a criar nos dias de confinamento, com telemóveis e a aplicação 3DC.io. O desafio partiu da ANPRI, que organizou na última semana em que os alunos do secundário e profissionais estavam em ensino à distância, uma semana de atividades, palestras, workshops e uma game jam. Para estes nossos pequeninos, foi um desafio e uma experiência nova, falar do que fazem para uma audiência alargada.

Deixamos a apresentação de suporte, que enquadra o projeto - trabalhar pensamento computacional com modelação 3D.

sábado, 17 de abril de 2021

Os Cegos, o Elefante, e a Inteligência Artificial


A memória prega-nos partidas. Recordo vagamente de, na infância ou adolescência, ter lido a história dos cegos que tinham de descrever um elefante. Já não a recordo nos seus detalhes, mas a imagem dos cegos a descrever de forma mirabolante uma criatura que nunca tinham conhecido ficou-me na mente. De tal forma que, quando comecei a preocupar-me em trazer a inteligência artificial para as aulas de TIC, pensei que seria uma excelente metáfora para que os alunos percebam as limitações e problemas dos algoritmos. Talvez não seja a metáfora mais rigorosa, mas encanta os meus meninos do 5º e 6º ano.

Sigo com algum teatro, imaginando como os cegos tocavam nas várias partes do elefante e as descreviam. "Uma corda grossa, cheia de nós", diz o que toca na tromba. "Ah, um ovo com bicos curvos", descreve o que toca na cabeça. "Então, mas isto são abanos", refere o que toca nas orelhas. Um apalpa a barriga do elefante e pronuncia "isto, parece uma pipa!" (e descobri que os meus alunos de hoje não conhecem o que é uma pipa ou um tonel, só percebem quando digo que é um barril, talvez um sinal da evolução da sociedade portuguesa, cada vez mais distante do seu passado rural). "Ah, parecem árvores", diz o que toca nas patas. Um, mais afoito, puxa pela cauda do elefante, sem que nada lhe caia em cima (risos imediatos quando as crianças percebem esta piada não muito subtil) e compara-a a uma corda com um espanador.

Claro que isto não é um elefante, discutimos. Mas todos percebem que os cegos tentaram o seu melhor, descreveram o elefante com os conceitos que conheciam. Ou, trazendo a experiência mais para perto do dia a dia dos alunos, explicaram algo de novo usando as palavras que conheciam. É um ponto de partida para explorar as redes neuronais, através de algoritmos Deep Dream e GAN, mostrando aos alunos como podem criar imagens usando estas ferramentas. E explicando, de forma simples, como elas funcionam, como dependem de modelos de treino, e como isso condiciona os resultados surpreendentes que nos dão. Poderei não estar a fazer isto da forma mais correta, ou cientificamente rigorosa, mas de certeza que os deixo a pensar sobre estas tecnologias.


Este vosso professor, visto pelo DeepDream. Esta imagem é descontração garantida na sala de aula. Nada como deixar um grupo de alunos de 14 anos, adolescentes irrequietos, quando uma experiência com a Nvidia GauGAN lhes mostra uma foto de um lugar inexistente a ser criada em tempo real pela inteligência artificial. E os mais pequenos ainda ficam mais surpreendidos. 

Ao fim de algumas aulas a falar de elefantes, decidi-me a ir pesquisar, para perceber se a história existia mesmo e não foi uma efabulação minha. A memória prega-nos partidas, momentos que pensamos ter vivido ou experienciado são algumas vezes algo que construímos na nossa mente. Não é o caso desta história, embora no seu original seja muito mais brutal do que na minha brincadeira com alunos. É uma parábola budista sobre preconceitos e a importância do conhecimento, com inúmeros níveis de interpretação, como estas coisas normalmente são. O que no entanto, não a torna menos apropriada para ser usada quando se fala de Inteligência Artificial. Afinal, um dos problemas éticos desta tecnologia é o enviesamento dos seus resultados por terem sido treinadas com conjuntos de dados problemáticos. O velho problema do garbage in, garbage out.

A meio de uma aula, lembrei-me que os problemas de representação advindos de erros de interpretação não são exclusivos das fábulas de origem budista. Em conjunto com os alunos, pesquisámos sobre representações medievais de elefantes, sabendo que os monges copistas não eram especialmente viajados e trabalhavam a partir de descrições livrescas, que muitas vezes não primavam pelo seu rigor. Descobrimos a deliciosa imagem que ilustra este artigo, claramente um esforço do ilustrador para representar o que leu sobre o aspeto de um elefante. Mas, desenhando o que sabia, acabou por ficar mais parecido com um cavalo com presas e uma tromba. Aqui, podem ver alguns exemplos ainda mais mirabolantes. Por entre os risos inevitáveis dos alunos, é importante sublinhar que estes erros não são o resultado da ignorância, mas sim da falta de conhecimento, e que, felizmente, evoluímos e estudamos cada vez mais o mundo que nos rodeia. 

domingo, 11 de abril de 2021

Tutorial Snapseed I: Correções de Imagem

 

O Snapseed é um editor gratuito de imagem, desenvolvido pela Google. Está pensado para dispositivos móveis, e coloca na ponta dos dedos muitas opções de edição de imagem. Pode-se trabalhar com filtros, ou ajustar inúmeras opções de edição com elevado nível de controlo. É uma das soluções de edição de imagem mais completas que encontrei para Android, permitindo fazer no telemóvel ou tablet edições que até há pouco só estavam disponíveis em aplicações para PC.

Neste tutorial, mostramos como usar as opções de correção de imagem do Snapseed - ajustes de cor, brilho, contraste, luminosidade e saturação; curvas; estrutura e equilíbrio de brancos.

sábado, 10 de abril de 2021

Deep Daze

 


Mulher olhando para maçã, numa floresta iluminada por raios solares.


Rua à beira rio, cão, em dia de céu azul.

Casa na colina, em manhã de nevoeiro.

Estou a divertir-me mais do que deveria com o Deep Daze. Esta ferramenta permite usar as capacidades dos algoritmos CLIP (geração automática de categorias e etiquetas a partir de reconhecimento de imagens) e SIREN. O resultado? Uma ferramenta que nos permite dar ao algoritmo uma frase de input, e ele, seguindo uma sequência de iterações, nos apresenta um resultado em imagem. Ou seja, geração de imagens a partir de texto.

O código para correr o Deep Daze está no Github, mas confesso que prefiro este bloco de notas Colab que simplifica o processo: basta importar as bibliotecas Python, alterar os parâmetros desejados (texto inicial, tamanho da imagem, número de iterações, razão de aprendizagem): Colab Deep Daze.

Para correr este algoritmo, é necessário um computador com placa gráfica dedicada, compatível com CUDA, e requer uma quantidade generosa de VRAM (4gb no mínimo). 

De resto, basta indicar um input - uma frase descritiva, em inglês, e pode ser muito surreal. O algoritmo começa com uma difusa imagem cinzento nublado e vai correndo iterações sucessivas até apresentar o que julga ser o indicado pelo utilizador. Os resultados, como podem ver neste post, são interessantes e surpreendentes. Os títulos das imagens são os inputs que dei ao algoritmo.

Céu azul tocando uma guitarra.

Memória de um cão a viajar no tempo.

Retrato de pessoa confusa, num céu de profundo vermelho.

Infelizmente, estão em resolução de 512x512. A minha placa gráfica não tem capacidade suficiente para ir a 1024x1024. 

sexta-feira, 9 de abril de 2021

Fake It

 

"Então, mas ó stor, isso é coisa que nos ensine? Assim ficamos a saber como se faz...", pergunta uma aluna depois de lhes ter demonstrado um hipotético cenário de bullying usando um vídeo deepfake (muito rudimentar) e o whatsapp. Pois claro, respondo. Se não se falar destas coisas, e mostrar, como é que se aprende a defender-se delas? Se bem que o ponto alto das aulas desta semana foi o momento em que os olhos dos alunos se abrem, surpreendidos, ao perceber a extensão do rastreamento comportamental feito pelos algoritmos das redes sociais. "Mas, stor, isso é como ter uma pessoa sempre atrás de nós a ver tudo o que fazemos..."

Para inspirar, uma brincadeira feita no telemóvel com uma aplicação que implementa algoritmos deepfake limitados: colocar Salazar a elogiar o 25 de abril. Algoritmos muito limitados, para se fazer deepfakes mais realistas é preciso usar modelos de treino mais complexos e maior poder computacional. No entanto, com algumas apps Android, já dá para fazer algumas experiências inesperadas.

Esta semana, o desafio aos alunos de TIC foi descobrir a inteligência artificial - as suas aplicações, o que se pensa sobre ela, a forma como já influencia as nossas vidas, hoje. Descobrir os algoritmos DeepDream e a criação de imagens com GAN. Mas também as estruturas sociais e linguagens das abelhas e formigas, para perceber que há diferentes tipos e níveis de inteligência; perceber a diferença entre AGI e os algoritmos poderosos mas de IA restrita que hoje se usam; e descobrir que a nossa pegada digital é a fonte dos dados que alimentam o desenvolvimento da Inteligência Artificial.

Um dos pontos de partida foi a criação de deepfakes. Graças a algumas apps android que incorporam elementos de deepfake, deu para fazer em tempo real, na sala de aula, usando vídeos dos alunos e imagens de celebridades escolhidas por eles, vídeos deepfake curtos. E, em seguida, explorar as consequências disso. Afinal, pode ser tão simples como usar uma foto tirada inocentemente a uma vítima (numa selfie de grupo, por exemplo), um vídeo de outro a dizer maldades, produzir o deepfake (mesmo rudimentar) e partilhar num grupo de Whatsapp para fazer pensar que alguém disse o que nunca disse, ou insultou quem nunca insultou. Nestas coisas da desinformação, o mal está feito quando a imagem falsa é publicada, mesmo que depois se venha a provar a sua falsidade. Creio que os alunos perceberam isso, esta semana.