quinta-feira, 6 de maio de 2021

Instantes

 




O que é que temos feito nas aulas de TIC? Regressando ao ensino presencial, aproveitamos para finalizar aprendizagens de processamento de texto e edição de folhas de cálculo, usando dispositivos móveis.




Apesar dos confinamentos, as nossas impressoras 3D não têm tido descanso. Após a impressão dos projetos dos alunos de 5º ano em E@D, estamos agora a imprimir projetos de alunos que, livremente, nos enviam pedindo a impressão. Muitos estão ligados com atividades de História, outros, com Educação Visual.

domingo, 18 de abril de 2021

Mind&Bytes: E@D 3D

 

Dia 15 de abril, alguns dos nossos alunos de 5º ano puderam mostrar o que andaram a criar nos dias de confinamento, com telemóveis e a aplicação 3DC.io. O desafio partiu da ANPRI, que organizou na última semana em que os alunos do secundário e profissionais estavam em ensino à distância, uma semana de atividades, palestras, workshops e uma game jam. Para estes nossos pequeninos, foi um desafio e uma experiência nova, falar do que fazem para uma audiência alargada.

Deixamos a apresentação de suporte, que enquadra o projeto - trabalhar pensamento computacional com modelação 3D.

sábado, 17 de abril de 2021

Os Cegos, o Elefante, e a Inteligência Artificial


A memória prega-nos partidas. Recordo vagamente de, na infância ou adolescência, ter lido a história dos cegos que tinham de descrever um elefante. Já não a recordo nos seus detalhes, mas a imagem dos cegos a descrever de forma mirabolante uma criatura que nunca tinham conhecido ficou-me na mente. De tal forma que, quando comecei a preocupar-me em trazer a inteligência artificial para as aulas de TIC, pensei que seria uma excelente metáfora para que os alunos percebam as limitações e problemas dos algoritmos. Talvez não seja a metáfora mais rigorosa, mas encanta os meus meninos do 5º e 6º ano.

Sigo com algum teatro, imaginando como os cegos tocavam nas várias partes do elefante e as descreviam. "Uma corda grossa, cheia de nós", diz o que toca na tromba. "Ah, um ovo com bicos curvos", descreve o que toca na cabeça. "Então, mas isto são abanos", refere o que toca nas orelhas. Um apalpa a barriga do elefante e pronuncia "isto, parece uma pipa!" (e descobri que os meus alunos de hoje não conhecem o que é uma pipa ou um tonel, só percebem quando digo que é um barril, talvez um sinal da evolução da sociedade portuguesa, cada vez mais distante do seu passado rural). "Ah, parecem árvores", diz o que toca nas patas. Um, mais afoito, puxa pela cauda do elefante, sem que nada lhe caia em cima (risos imediatos quando as crianças percebem esta piada não muito subtil) e compara-a a uma corda com um espanador.

Claro que isto não é um elefante, discutimos. Mas todos percebem que os cegos tentaram o seu melhor, descreveram o elefante com os conceitos que conheciam. Ou, trazendo a experiência mais para perto do dia a dia dos alunos, explicaram algo de novo usando as palavras que conheciam. É um ponto de partida para explorar as redes neuronais, através de algoritmos Deep Dream e GAN, mostrando aos alunos como podem criar imagens usando estas ferramentas. E explicando, de forma simples, como elas funcionam, como dependem de modelos de treino, e como isso condiciona os resultados surpreendentes que nos dão. Poderei não estar a fazer isto da forma mais correta, ou cientificamente rigorosa, mas de certeza que os deixo a pensar sobre estas tecnologias.


Este vosso professor, visto pelo DeepDream. Esta imagem é descontração garantida na sala de aula. Nada como deixar um grupo de alunos de 14 anos, adolescentes irrequietos, quando uma experiência com a Nvidia GauGAN lhes mostra uma foto de um lugar inexistente a ser criada em tempo real pela inteligência artificial. E os mais pequenos ainda ficam mais surpreendidos. 

Ao fim de algumas aulas a falar de elefantes, decidi-me a ir pesquisar, para perceber se a história existia mesmo e não foi uma efabulação minha. A memória prega-nos partidas, momentos que pensamos ter vivido ou experienciado são algumas vezes algo que construímos na nossa mente. Não é o caso desta história, embora no seu original seja muito mais brutal do que na minha brincadeira com alunos. É uma parábola budista sobre preconceitos e a importância do conhecimento, com inúmeros níveis de interpretação, como estas coisas normalmente são. O que no entanto, não a torna menos apropriada para ser usada quando se fala de Inteligência Artificial. Afinal, um dos problemas éticos desta tecnologia é o enviesamento dos seus resultados por terem sido treinadas com conjuntos de dados problemáticos. O velho problema do garbage in, garbage out.

A meio de uma aula, lembrei-me que os problemas de representação advindos de erros de interpretação não são exclusivos das fábulas de origem budista. Em conjunto com os alunos, pesquisámos sobre representações medievais de elefantes, sabendo que os monges copistas não eram especialmente viajados e trabalhavam a partir de descrições livrescas, que muitas vezes não primavam pelo seu rigor. Descobrimos a deliciosa imagem que ilustra este artigo, claramente um esforço do ilustrador para representar o que leu sobre o aspeto de um elefante. Mas, desenhando o que sabia, acabou por ficar mais parecido com um cavalo com presas e uma tromba. Aqui, podem ver alguns exemplos ainda mais mirabolantes. Por entre os risos inevitáveis dos alunos, é importante sublinhar que estes erros não são o resultado da ignorância, mas sim da falta de conhecimento, e que, felizmente, evoluímos e estudamos cada vez mais o mundo que nos rodeia. 

domingo, 11 de abril de 2021

Tutorial Snapseed I: Correções de Imagem

 

O Snapseed é um editor gratuito de imagem, desenvolvido pela Google. Está pensado para dispositivos móveis, e coloca na ponta dos dedos muitas opções de edição de imagem. Pode-se trabalhar com filtros, ou ajustar inúmeras opções de edição com elevado nível de controlo. É uma das soluções de edição de imagem mais completas que encontrei para Android, permitindo fazer no telemóvel ou tablet edições que até há pouco só estavam disponíveis em aplicações para PC.

Neste tutorial, mostramos como usar as opções de correção de imagem do Snapseed - ajustes de cor, brilho, contraste, luminosidade e saturação; curvas; estrutura e equilíbrio de brancos.

sábado, 10 de abril de 2021

Deep Daze

 


Mulher olhando para maçã, numa floresta iluminada por raios solares.


Rua à beira rio, cão, em dia de céu azul.

Casa na colina, em manhã de nevoeiro.

Estou a divertir-me mais do que deveria com o Deep Daze. Esta ferramenta permite usar as capacidades dos algoritmos CLIP (geração automática de categorias e etiquetas a partir de reconhecimento de imagens) e SIREN. O resultado? Uma ferramenta que nos permite dar ao algoritmo uma frase de input, e ele, seguindo uma sequência de iterações, nos apresenta um resultado em imagem. Ou seja, geração de imagens a partir de texto.

O código para correr o Deep Daze está no Github, mas confesso que prefiro este bloco de notas Colab que simplifica o processo: basta importar as bibliotecas Python, alterar os parâmetros desejados (texto inicial, tamanho da imagem, número de iterações, razão de aprendizagem): Colab Deep Daze.

Para correr este algoritmo, é necessário um computador com placa gráfica dedicada, compatível com CUDA, e requer uma quantidade generosa de VRAM (4gb no mínimo). 

De resto, basta indicar um input - uma frase descritiva, em inglês, e pode ser muito surreal. O algoritmo começa com uma difusa imagem cinzento nublado e vai correndo iterações sucessivas até apresentar o que julga ser o indicado pelo utilizador. Os resultados, como podem ver neste post, são interessantes e surpreendentes. Os títulos das imagens são os inputs que dei ao algoritmo.

Céu azul tocando uma guitarra.

Memória de um cão a viajar no tempo.

Retrato de pessoa confusa, num céu de profundo vermelho.

Infelizmente, estão em resolução de 512x512. A minha placa gráfica não tem capacidade suficiente para ir a 1024x1024. 

sexta-feira, 9 de abril de 2021

Fake It

 

"Então, mas ó stor, isso é coisa que nos ensine? Assim ficamos a saber como se faz...", pergunta uma aluna depois de lhes ter demonstrado um hipotético cenário de bullying usando um vídeo deepfake (muito rudimentar) e o whatsapp. Pois claro, respondo. Se não se falar destas coisas, e mostrar, como é que se aprende a defender-se delas? Se bem que o ponto alto das aulas desta semana foi o momento em que os olhos dos alunos se abrem, surpreendidos, ao perceber a extensão do rastreamento comportamental feito pelos algoritmos das redes sociais. "Mas, stor, isso é como ter uma pessoa sempre atrás de nós a ver tudo o que fazemos..."

Para inspirar, uma brincadeira feita no telemóvel com uma aplicação que implementa algoritmos deepfake limitados: colocar Salazar a elogiar o 25 de abril. Algoritmos muito limitados, para se fazer deepfakes mais realistas é preciso usar modelos de treino mais complexos e maior poder computacional. No entanto, com algumas apps Android, já dá para fazer algumas experiências inesperadas.

Esta semana, o desafio aos alunos de TIC foi descobrir a inteligência artificial - as suas aplicações, o que se pensa sobre ela, a forma como já influencia as nossas vidas, hoje. Descobrir os algoritmos DeepDream e a criação de imagens com GAN. Mas também as estruturas sociais e linguagens das abelhas e formigas, para perceber que há diferentes tipos e níveis de inteligência; perceber a diferença entre AGI e os algoritmos poderosos mas de IA restrita que hoje se usam; e descobrir que a nossa pegada digital é a fonte dos dados que alimentam o desenvolvimento da Inteligência Artificial.

Um dos pontos de partida foi a criação de deepfakes. Graças a algumas apps android que incorporam elementos de deepfake, deu para fazer em tempo real, na sala de aula, usando vídeos dos alunos e imagens de celebridades escolhidas por eles, vídeos deepfake curtos. E, em seguida, explorar as consequências disso. Afinal, pode ser tão simples como usar uma foto tirada inocentemente a uma vítima (numa selfie de grupo, por exemplo), um vídeo de outro a dizer maldades, produzir o deepfake (mesmo rudimentar) e partilhar num grupo de Whatsapp para fazer pensar que alguém disse o que nunca disse, ou insultou quem nunca insultou. Nestas coisas da desinformação, o mal está feito quando a imagem falsa é publicada, mesmo que depois se venha a provar a sua falsidade. Creio que os alunos perceberam isso, esta semana.

sexta-feira, 26 de março de 2021

Balanço E@D


Temos alguns monstrinhos alegres...


Muitos robots...

Alguns objetos tecnológicos...


Meios de transporte...


Animais...

Muitas flores...

Alguma arquitectura...

E umas delícias. Ao longo do período de ensino à distância, os alunos de 5º ano foram desafiados a explorar vertentes do pensamento computacional, quer aprofundando conhecimentos sobre algoritmos, quer usando o 3D como forma diferente de desenvolver competências nos domínios do reconhecimento de padrões, decomposição e abstração (e, de certa forma, também de algoritmos, porque os procedimentos de modelação 3D levam ao desenvolvimento de metodologias de uso das ferramentas e opções, ou de estratégias individuais para obter os resultados esperados). Para modelar em 3D, é necessário conceptualizar o objeto que se quer criar (abstração), decompô-lo nos seus elementos para perceber como se vai modelar e com que formas (decomposição), reconhecer padrões (o que tem de ser modelado uma única vez ou o que pode ser copiado e reutilizado).

Para despertar a faísca nos alunos, usámos as aulas online complementadas por vídeotutoriais, especialmente focados na necessidade de abstração e decomposição para criação em 3D.


Utilizámos a técnica de modelação por primitivos, que apesar de ser simples tem o desafio adicional de obrigar a pensar um objeto e tentar perceber como o recriar, em 3D, usando apenas as formas geométricas. Os alunos usaram o 3DC.io nos seus tablets, telemóveis ou computador. A grande maioria dos nossos 220 alunos de quinto ano respondeu a este desafio, muitas vezes com resultados surpreendentes. Estamos a imprimir os melhores. Não nos atrevemos a fazer contas ao número de modelos impressos, para não nos assustarmos.

Quando regressarem ao ensino presencial, os criadores destes fantásticos projetos receberão as suas criações impressas em 3D.


quinta-feira, 25 de março de 2021

Curtas Lab Aberto

 O desafio: 30 minutos para mostrar o essencial de uma tecnologia. Nesta segunda sessão, o tema foi o scan 3D com fotogrametria, e suas aplicações na expressão pessoal e educação.

Projetos 3D no Telemóvel


Temos estado um pouco discretos, focados no necessário apoio à escola em tempos de confinamento. Mas nem por isso deixámos de desafiar os nossos alunos, e partilhamos aqui alguns resultados, de uma turma de 7.º ano. Projetos em tema livre, ainda na fase de descoberta e aprendizagem das apps de modelação 3D em dispositivos móveis.

quarta-feira, 24 de março de 2021

Anta de Carcavelos

 


Sinceramente não sei como é que o meu computador não estourou com este projeto. A ideia surgiu por acaso, durante um passeio na zona de Lousa. Encontrar este vestígio pré-histórico era o objetivo. E já o tenho digitalizado, e devidamente impresso em 3D, integrando o kit de artefactos pré-históricos que temos na escola para os alunos poderem tocar.

O modelo impresso em 3D (houve ali um warping que causou desvio na base, mas não afetou o modelo).


E o espaço real, que merece bem uma visita. Pesquisem Anta de Carcavelos no Google Maps, mas levem botas e preparem-se para desbravar algum mato.


Como foi feito? Confesso que tenho pouca paciência para o meticuloso trabalho de tirar fotos sucessivas interpostas que a fotogrametria requer. E, com a defunta Display.land, aprendi que se poderia fazer captura 3D a partir de vídeo. É assim que tenho feito, ultimamente. Filmo com o telemóvel (câmara na resolução máxima), circulando à volta do objeto para captar o máximo de pontos de vista e detalhes. O software de fotogrametria que uso não aceita vídeo como input (outros, como o Zephyr, fazem-no), tenho de ter o passo adicional de converter o vídeo para imagens. Uso o Free Video2JPEG Converter, que me permite decidir quantos fotogramas preservar do número total de fotogramas possíveis. Normalmente escolho extrair um em cada cinco fotogramas.

O resultado disto foi umas massivas 700 fotos, que importei para o Meshroom. Em seguida, foi deixá-lo correr a pipeline de digitalização 3D. Os nós suspeitos do costume demoraram - quer o Structure from Motion quer o Depth Map, que já percebi serem os mais intensivos computacionalmente. Não estava à espera que o meshing me demorasse quatro horas. O tempo total foi de cerca de oito horas... nunca nenhuma pipeline de fotogrametria me tinha demorado tanto tempo. A culpa disso está no elevado nível de detalhe, e no número de fotos. No dia seguinte repeti o processo com um dataset menor, cerca de 350 fotografias, e perderam-se alguns detalhes importantes. Ou seja, compensou a espera.

Para imprimir em 3D, outra dor de cabeça. O Meshroom gera uma superfície, e esta não era fácil de fechar para tornar estanque. Normalmente resolvo isso no Accutrans, com uma função que permite gerar volumetria no eixo escolhido. Infelizmente, a malha poligonal demasiado densa deste modelo não estava a facilitar a via ao Accutrans. Um pouco por acaso, descobri que o discreto 3D Builder tem uma opção chamada Extrusão Inferior - podemos definir um plano de corte, e a partir daí o algoritmo extrude verticalmente até chegar ao plano-base do 3D Builder. Ou seja, torna incrivelmente fácil a geração de modelos com volumetria estanque a partir de superfícies, para impressão 3D.

Gostaria muito de embeber aqui o modelo 3D da Anta de Carcavelos, mas excede os tamanhos permitidos pelo Sketchfab. Em parte porque o Meshroom gerou um modelo muito detalhado, completo com mapas de textura em alta resolução. Diminuir a contagem de polígonos no Meshlab, infelizmente, diminui a qualidade do modelo. Mas podem clicar aqui para o visualizar em 3D: Kroscloud - Anta de Carcavelos.

sábado, 27 de fevereiro de 2021

Desafios 3D


Alguns tutoriais em modo faísca, para desafiar os alunos mais novos durante o confinamento, ajudando a resolver o problema de e agora, aprendi a modelar 3D mas vou fazer o quê?, e ainda olhando para conceitos de pensamento computacional - especificamente, decomposição.


Modelar um lápis, e para o fazer, analisar um objeto e decompô-lo em formas elementares.


Modelar uma flor, combinando desenho de superfícies, primitivos, e operações de manipulação e modificação.

segunda-feira, 22 de fevereiro de 2021

Ser Robot

 


Como desafio para iniciar os alunos de sexto ano na robótica, lançou-se a pergunta o que é para ti um robot. Deram-nos respostas maravilhosas! Poemas, desenhos, vídeos, modelos 3D... temos alunos muito criativos, e é fantástico quando podem dar asas às suas capacidades. Deixo aqui algumas das excelente surpresas que tenho recebido: 

A robótica é uma maneira de expressar a humanidade através de uma tecnologia avançada.

Para a robótica não existem limites

É todo um mundo espetacular

Por favor não me imites 

Pois ainda há muito a explorar.


Constrói um robot educado 

Para educado tu seres

Não o faças indelicado

Para indelicado não pareceres.


A robótica já é muito antiga

Mas não se esgota por aqui

Constrói uma robot amiga

Que esteja sempre para ti.


É tudo automático

Com controlo por circuitos

Torna tudo bem mais pratico

E apenas um, faz, o que fariam muitos.


É uma coisa cativante

Que conhecemos na escola

Para ser melhor estudante

E largarmos a consola


Aproxima-nos da ciência

E da tecnologia

Aprender programação

E toda a metodologia.


Aumenta a criatividade

Porque esta é inesgotável

Não penses que não é para a minha idade

Pois torna-me mais responsável.

domingo, 17 de janeiro de 2021

Processamento de Texto com Google Docs II

Nos vídeos deste recurso, irás aprender a inserir imagens, com redimensionamento e moldagem de texto, bem como a paginar o teu documento.

Imagens: Inserir, Dimensionar e Moldar 

 


Num documento, ao inserires imagens, podes definir todo o aspeto gráfico. Podes definir que tamanho terá a imagem inserida, bem como criar uma moldura ou limite. Podes ainda ajustar o texto à imagem com as opções de moldagem.

Paginar um Documento

 

No Google Docs, paginar o documento é muito simples. Basta ir à opção adicionar e escolher número de páginas. Depois, escolhes o tipo de paginação.

domingo, 10 de janeiro de 2021

Processamento de Texto com Google Docs I



Usando a aplicação Google Docs, podemos criar e editar textos usando os nossos dispositivos móveis e computador. Os documentos sincronizam-se através da nossa conta Google (como no caso da conta institucional da escola), o que significa que podemos editar um mesmo ficheiro usando múltiplos dispositivos. Também permite trabalhar offline, ou seja, podemos continuar o nosso trabalho se não tivermos ligação à internet, sincronizando quando a ligação ficar disponível. Um dos recursos mais poderosos desta aplicação é a forma como nos permite trabalhar de forma colaborativa - um mesmo documento pode ser partilhado e editado por múltiplos utilizadores.






Nesta página, vais ficar a conhecer como usar as ferramentas do Google Docs para Android (tablet e telemóvel). As mesmas opções estão disponíveis na versão para computador, acessível através do navegador.

Processamento de Texto com o Google Docs

Com esta aplicação, podes criar e editar textos individualmente ou de forma colaborativa usando os teus dispositivos - computador, telemóvel ou tablet, sincronizando os dados sempre que estiveres ligado à internet.

Onde obter a aplicação:

Para Android: Google Docs

Para iOS: Google Docs

No computador, podes aceder ao Docs através da conta institucional (ou pessoal)  em docs.google,com, ou através da Drive.

Aceder e Criar Documentos



Aceder ao Docs usando um dispositivo móvel. Podemos criar documentos Google acedendo diretamente à aplicação Docs, ou através da Drive. 

Formatação de Texto



Usando a barra de ferramentas do Google Docs, podes formatar facilmente os textos, configurando o tipo de letra, alinhamento de parágrafos, marcas e numeração, ou indentação:



Podes definir estas opções antes de iniciar o texto, ou modificá-las selecionando texto e parágrafos.

Para alterares o tipo de letra ou o espaçamento de parágrafo, tens de aceder às opções de texto e parágrafo:


Nas opções de texto, para além das disponíveis na barra de ferramentas, podes alterar o estilo de texto (definindo se uma palavra ou frase é título, subtítulo, ou texto normal de parágrafo), e o tipo de letra.



Nas opções de parágrafo, para além das opções de justificação e marcas/numeração, podes configurar o espaçamento entre linhas.

Inserir Elementos


No menu Inserir, podes inserir num documento imagens, ligações, linhas, quebras de página e paginar o documento:





sábado, 9 de janeiro de 2021

Criação de Folhas de Cálculo com Sheets - I


Com a aplicação Google Folhas de Cálculo (Sheets), podes criar, editar e consultar este tipo de documentos no computador, telemóvel ou tablet. A aplicação é baseada na cloud, ou seja, os teus documentos ficam guardados na internet (mas podem ser editados offline). No computador, não requer instalação de software. Podes consultar e editar o mesmo documento em qualquer dispositivo, quer seja computador ou móvel.

Onde descarregar: 

Playstore Android: Google Folhas de Cálculo

App Store Apple: Google Sheets

Não está disponível na AppGallery Huawei, não funciona em dispositivos que não usem o GMS - Google Mobile Services.


Aceder às Folhas de Cálculo Google

Vê neste vídeo como aceder:

 


Podes aceder, criar, visualizar e editar folhas de cálculo através da aplicação Google Drive, ou diretamente na aplicação Google Sheets. 

Definições e Formatação

Vê neste vídeo as principais definições e opções de formatação:

 



Conceitos:

  • Célula: o elemento da grelha onde se inserem valores, texto ou fórmulas.
  • Linha: alinhamento horizontal das células
  • Coluna: alinhamento vertical das células
  • Fórmulas: operações matemáticas feitas com várias células, que podem ser inseridas

Opções de Formatação


Na barra de ferramentas da aplicação Sheets, encontras opções de formatação de letra e valores, alinhamento e moldagem de texto, cores e limites.

Podes ainda aceder a opções avançadas de formatação de texto ou células.

segunda-feira, 21 de dezembro de 2020

Hour of Code: Fotografia, Robots e Património

 

Este ano, o desafio Hour of Code para os alunos de 5º ano foi descobrir a robótica e o 3D através de fotografia digital. Pegando no projeto interdisciplinar de exploração do retrato da Infanta Maria Bárbara no Palácio Nacional de Mafra, desenvolveu-se uma pequena atividade que permitiu aos alunos ficar a conhecer melhor o seu telemóvel. 


O ponto de partida foram litofanos criados a partir do retrato. Estas peças impressas em 3D permitem criar objetos com efeitos negativos, sendo possível ver a imagem a contra-luz. Os robots Anprino foram a fonte de luz, usando leds. Foi uma oportunidade para descobrir estes robots, e como se programam.


O principal desafio foi fotografar, à contra luz, sob escuridão. Com isso, os alunos descobriram as capacidades de fotografia dos seus telefones, percebendo a diferença entre posições de retrato e paisagem, quando usar, ou não, o flash, enquadramentos e funções não automáticas para controlar temperatura da imagem, velocidade do obturador ou sensibilidade de exposição. Funções disponíveis na maioria das câmaras dos telemóveis, que permitem tirar fotografias mais criativas, mas que raramente são exploradas.

Criatividade potenciada por ferramentas digitais é o nosso grande objetivo. Nesta atividade, realizada dentro das limitações pandémicas, foi possível aos alunos descobrir o potencial da fotografia digital, robótica, programação e 3D.

sábado, 19 de dezembro de 2020

Tutorial Pocket Code: Movimentos com Deteção de Toque

 Já sabemos que podemos controlar os movimentos dos atores no Pocket Code com os vários blocos de movimento, e que o bloco Planar permite que se alterem os valores do tempo, e das coordenadas. Agora, vamos aprender a mover atores nos programas desenvolvidos no Pocket Code usando o toque no ecrã do telemóvel.


Aqui, são usadas as posições de toque para definir as coordenadas X e Y (coordenadas cartesianas) do ponto para onde queremos que se desloque o ator.

Sensores de Toque

Primeiro, vamos definir o movimento: usamos o bloco When Scene Starts para iniciar a ação, e um ciclo para sempre (Forever), dentro do qual vamos inserir o bloco Planar. Em seguida, tocamos nos valores de X ou de Y para editar a fórmula.



No editor de fórmulas, tocamos na opção Dispositivo para aceder aos sensores do telemóvel ou do tablet.


Em seguida, temos de selecionar os sensores de Deteção de Toque que se aplicarem ao projeto. Neste, usamos os sensores stage touch x para definir a coordenada X, e stage touch y para definir a coordenada y. Com isto, conseguimos que o nosso ator se mova quando tocarmos no ecrã, para o ponto onde o toque foi detetado.

Outros Sensores

Podes usar outros sensores que detetem valores de posicionamento X e Y. Por exemplo, os sensores de deteção de rosto detetam as coordenadas X e Y de um rosto detetado pela câmara.


Com este código, sempre que o telemóvel detetar um rosto, o personagem vai para as coordenadas dadas pela câmara. Ou seja, podes controlar um personagem com a tua cara.