Explicamos como a Digital Native mede impacto social com indicadores simples, recolha de dados acessível e acompanhamento prático no terreno.
O Problema de Medir o Que Não Importa
Criamos um projecto de inovação social para uma câmara municipal. Definimos 15 indicadores de impacto. Passados 6 meses, a equipa não tinha dados para 12 deles. Percebemos tarde demais que os indicadores eram bons para o relatório, mas inúteis para quem trabalhava no terreno.
Hoje, não permitimos mais de 3 indicadores por projecto. E testamos cada um antes de aprovar. Porque medir o que não importa é pior que não medir nada. Consome tempo e desacredita a ideia de avaliação.
Passo 1: Definir Indicadores Úteis e Realistas
Ligamos cada indicador a uma pergunta concreta
Definimos indicadores a partir de perguntas que a equipa local já se faz. Num projeto de apoio a idosos, a pergunta era: “quantas pessoas deixaram de faltar às consultas por falta de transporte?” O indicador surgiu aí: “número de desmarcações por falta de transporto evitadas”.
Não usamos “nível de inclusão social”. Usamos “quantas pessoas usaram o serviço de transporte”. A equipa local consegue contar. Não precisa de formação. Não precisa de manual. Precisa de um caderno.
Testamos cada indicador com a pergunta: “consegue recolher isto sem esforço extra?” Se a resposta for “tenho de criar um formulário novo”, desistimos do indicador. Se for “já tenho esta informação no meu registo diário”, aprovamos.
Testamos se a equipa consegue recolher em 5 minutos
Antos de aprovar um indicador, pedimos à equipa que simule a recolha. Cronometramos. Se demora mais que 5 minutos por dia, o indicador é descartado. Não negociamos. O tempo da equipa é o recurso mais escasso.
Numa associação de bairro, queríamos medir “tempo de resposta a pedidos de ajuda”. A técnica simulou. Demorou 8 minutos por pedido. Era inviável. Mudámos para “número de pedidos atendidos no mesmo dia”. Demorava 1 minuto. E era suficiente.
Este teste de 5 minutos é o filtro que nos protege da vaidade metodológica. É fácil criar indicadores elegantes. É difícil criar indicadores úteis. O teste é prático. Não teórico.
Evitamos modas metodológicas a todo o custo
Não usamos “theory of change”. Não usamos “logic framework”. Usamos uma folha A4 dividida em 3 colunas: o que fazemos, o que esperamos que mude, como sabemos que mudou. É tudo.
Num projecto com uma autarquia, o técnico sugeriu usar indicadores SMART. Concordámos. Depois percebemos que SMART para ele era “Specific, Measurable…” e para a equipa do terreno era “Só Mais Assuntos Rápidos Ter de tratar”. Desistimos. Voltámos ao que a equipa entendia.
As modas metodológicas são para financiadores. O nosso trabalho é para equipas. Se o financiador exige indicadores complexos, criamos uma versão para o relatório e uma versão para o terreno. A versão para o terreno é a que importa. A outra é para cumprir.
Passo 2: Recolha de Dados Simples e Acessível
Usamos ferramentas que a equipa já usa
Recolhemos dados com Google Forms, Excel partilhado ou papel. Nunca implementamos uma plataforma de recolha se a equipa não tiver usado algo similar. O custo de aprender nova ferramenta é maior que o benefício de ter dados mais bonitos.
Numa câmara municipal, a equipa usava um caderno para registo diário. Transformámos o caderno numa tabela Excel. Mesma estrutura, mesma ordem. Demorou 10 minutos a adaptar. Os dados passaram a ser partilháveis. E a equipa continuou a fazer o mesmo.
Esta escolha é política. É dizer: o vosso trabalho não vai mudar. Vai apenas ficar visível. É assim que se ganha adesão. Não com ferramentas novas e brilhantes. Com ferramentas conhecidas e leves.
Treinamos a recolha em 30 minutos, não em 3 horas
O treino de recolha de dados dura 30 minutos. Mostramos o formulário. Pedimos que o preencham com um caso real. Corrigimos erros. Respondem perguntas. Fica feito.
Numa associação de bairro, a presidente tinha medo de “não ser boa com tecnologia”. Sentámo-nos ao lado dela. Ela narrou, nós clicámos. No segundo caso, ela clicou. No terceiro, já não precisava de nós. Foram 15 minutos.
O treino longo gera dependência. O treino curto e prático gera autonomia. A equipa deve sentir que consegue. Não que depende de nós para mais 3 sessões de formação.
Evitamos sobrecarga: 3 cliques por registo
Se o registo de dados implica mais que 3 cliques, o sistema é mau. Reformulamos. A sobrecarga de dados mata a vontade de recolher. E sem recolha, não há medição.
Num sistema de acompanhamento de crianças, o formulário tinha 12 campos. Reduzimos para 4. Perdemos dados. Mas ganhamos consistência. Os 4 dados são fiáveis e completos. Os 12 eram parciais e falsos.
A perfeição dos dados é inimiga da recolha. Preferimos dados simples e completos a dados complexos e parciais. É uma escolha consciente. E explica ao cliente porquê.
Passo 3: Acompanhamento Contínuo no Terreno
Visitas a cada 3 semanas, não a cada 3 meses
Acompanhamos projectos com visitas ao terreno de 3 em 3 semanas. Não enviamos formulários. Não fazemos reuniões online. Vamos lá. Sentamo-nos com a equipa. Vemos o sistema a funcionar. Observamos os pontos de atrito.
Numa autarquia, a visita de 3 semanas mostrou que a técnica tinha deixado de usar o sistema porque um campo era obrigatório e não se aplicava. Alterámos no dia seguinte. Se a visita fosse a cada 3 meses, perdemos 2 meses de dados. E a técnica tinha desistido definitivamente.
A frequência curta é um sinal. Diz à equipa: “isto importa”. E dá-nos dados frescos. Não dados de memória. Dados de observação directa.
Chamadas de 15 minutos, não de uma hora
Entre visitas, fazemos chamadas de 15 minutos. Sem agenda. “Como é que está a correr?” A resposta é rápida. “Bem, mas temos um problema no registo de novos utentes.” Resolvemos na hora. A chamada acaba em 7 minutos.
A chamada longa cria expectativa de performance. A chamada curta cria expectativa de honestidade. As equipas dizem o que realmente se passa. Não preparam apresentações. Não fazem relatórios. Falamos.
Este acompanhamento contínuo é o que nos permite ajustar rápido. Saber o que não está a funcionar antes de ser um problema grande. É prevenção, não correção.
Quando dados contradizem a realidade
Por vezes, os dados dizem uma coisa e a realidade diz outra. Num projecto de entrega de cabazes, os dados mostravam 100% de entregas no prazo. A visita mostrou que as entregas eram feitas, mas a qualidade era má. Os cabazes tinham produtos avariados.
Os dados estavam correctos. Mas não mediam o que importava. Ajustámos o indicador. Passámos a medir “percentagem de produtos avariados por cabaz”. Os dados mudaram. E a qualidade melhorou.
A contradição entre dados e realidade é um sinal de alerta. Não significa que a equipa mente. Significa que o indicador está mal. É um convite a ajustar.
Passo 4: Interpretação Prática dos Resultados
Relatórios de 1 página, não de 30
Interpretamos resultados numa página. Uma tabela com 4 colunas: o que medimos, o que aconteceu, o que aprendemos, o que fazemos a seguir. Não mais.
Num projecto de 6 meses, a página final tinha 3 linhas. Uma linha: “número de pessoas atendidas subiu 20%”. Segunda linha: “mas o tempo de espera manteve”. Terceira linha: “precisamos de mais um técnico para manter a qualidade”.
Esta página foi lida pelo presidente da câmara. E aprovou o novo técnico. O relatório de 30 páginas do projecto anterior foi arquivado sem leitura.
A concentração é um acto de respeito. Respeito pelo tempo de quem lê. E foco no que realmente importa.
Focamos em 3 conclusões que fazem diferença
Nunca apresentamos mais que 3 conclusões. Mais que 3, ninguém lembra. Mais que 3, ninguém actua.
Numa apresentação a uma associação, as 3 conclusões foram: “o sistema funciona, mas só para quem tem internet móvel; 40% dos utentes não têm; precisamos de uma linha telefónica”.
A associação criou a linha telefónica na semana seguinte. Se tivéssemos apresentado 10 conclusões, a linha telefónica ficaria no meio da lista e nunca seria prioridade.
A escolha das 3 conclusões é um exercício de priorização. É dizer: disto tudo, o que realmente muda o próximo passo? O resto é contexto. E contexto não é acção.
Apresentamos resultados sem jargão, só com histórias
Apresentamos resultados contando histórias. Não mostramos gráficos. Contamos o que aconteceu à Maria, que usou o sistema e conseguiu marcar a consulta 2 dias mais cedo. E o que aconteceu ao João, que não conseguiu porque o telemóvel estava desligado.
A história do João é mais importante que a do Maria. Porque mostra onde o sistema falha. E mostra que conhecemos a falha. E que temos um plano para a resolver.
Os números são secundários. São para validar as histórias. A história é o que toca. É o que leva a decisões.
Passo 5: Reconfigurar Quando os Resultados Falham
Desligamos soluções que não produzem impacto
Quando os resultados mostram que uma solução não muda nada, desligamos. Não ajustamos. Não melhoramos. Desligamos. Já gastámos tempo suficiente.
Num projecto de incentivo ao voluntariado, o sistema de gamificação não aumentou o número de voluntários. Após 3 ciclos de iteração, os resultados mantiveram-se. Desligámos. Voltámos ao sistema anterior. Simples. Directo.
A equipa teve medo. Parecia um fracasso. Explicámos: “saber que algo não funciona é um resultado. É um sucesso.” Economizámos tempo e dinheiro que seriam gastos a aperfeiçoar algo que nunca funcionaria.
Comunicamos ajustes sem drama
Quando ajustamos, comunicamos directamente. Enviámos um email: “o indicador X não serve. Vamos passar a medir Y. Isto implica mudar o formulário. O novo formulário está aqui”. Sem reunião. Sem justificação longa.
O drama nasce da hesitação. Da ideia de que mudar é sinal de fracasso. Nós normalizamos a mudança. Dizemos desde o início: “vamos mudar. Vários vezes.” Quando mudamos, a equipa está à espera. Não se assusta. Aceita.
Evitamos desperdício: mantemos o que funciona, descartamos o resto
Reconfigurar sem desperdício implica manter o que funciona. Não refazer tudo. Se o sistema de registo funciona, mantém-se. Se o indicador de qualidade falha, muda-se só o indicador.
Num projecto de entrega de alimentos, o sistema de logística funcionava. O sistema de feedback dos utentes não. Mantivemos o primeiro. Refizemos o segundo. Demorámos 3 dias. Não 3 semanas.
Esta selectividade é uma arte. É saber ouvir os dados. É ter coragem de manter o que está bom, mesmo que seja antigo. E de mudar o que está mal, mesmo que seja novo.
O Que Guardamos de Cada Medição
Guardamos não os dados, mas as decisões que os dados originaram. Guardamos a história da Maria. Guardamos a falha do João. Guardamos o indicador que mudámos. E guardamos o email que a equipa nos enviou a dizer “agora funciona”.
Cada medição é uma lição. Não sobre o projecto. Sobre nós. Sobre o que soubemos ver. Sobre o que nos enganou. Sobre o que aprendemos a perguntar de forma diferente.
A pergunta que deixamos: o que é que vocês medem hoje que vos ajuda a decidir amanhã? Se não conseguem responder, o problema não é a falta de dados. É a falta de perguntas claras. E é por isso que medimos impacto social no terreno. Para fazer perguntas que importam.
