3. COMO PRODUZIR INDICADORES DE AVALIAÇÃO DAS AÇÕES DE EXTENSÃO
Documento Forproex 2013: Capitulo 03 (conceitos); Capitulo 04 (avaliação e indicadores); Capitulo 05 (sistema de monitoramento e avaliação)
COMO AVALIAR AS AÇÕES DE EXTENSÃO E PRODUZIR INDICADORES_FORPROEX 2013.pdf
Documento PDF (999.8KB)
Documento PDF (999.8KB)
avaliação da extensão universitária
práticas e discussões da comissão
permanente de avaliação da extensão
FÓRUM DE PRÓ-REITORES DE EXTENSÃO DAS INSTITUIÇÕES
PÚBLICAS DE EDUCAÇÃO SUPERIOR BRASILEIRAS
comissão permanente de avaliação da extensão
avaliação da extensão universitária
práticas e discussões da comissão
permanente de avaliação da extensão
coleção extensão universitária - 8
Maria das Dores Pimentel Nogueira (Organizadora)
Sonia Regina Mendes dos Santos
Fernando Setembrino Cruz Meirelles
Ana Inês Sousa
Edite da Penha Cunha
Marilia Barcellos Guimarães
Rossana Souto Maior Serrano
belo horizonte | 2013
capítulo
3
avaliação e extensão:
dos conceitos fundamentais a reflexões sobre a prática
76
capítulo 3
avaliação e extensão: dos conceitos fundamentais a
reflexões sobre a prática
Sonia Regina Mendes dos Santos
Fernando Setembrino Cruz Meirelles
Rossana Souto Maior Serrano
A extensão universitária, como as demais funções da IPES, não pode
prescindir de um processo de investigação que possa determinar se as
atividades que desenvolve alcançam ou não os resultados esperados. Até
que ponto os projetos que desenvolvidos modificam a situação sobre qual
se debruça? Quais resultados alcançou? Eles foram significativos?
Pela sua natureza intrínseca de compartilhamento com atores externos,
a extensão permite vários posicionamentos e vários olhares sobre essa
avaliação. Portanto, indaga-se: a comunidade externa teve sua situação
modificada? Os projetos pedagógicos dos cursos foram afetados por essa
ação ao longo do tempo? Os egressos que participaram da ação apresentam uma formação diferenciada dos demais? As linhas de pesquisa foram
modificadas após a ação? A ação extensionista considerou as necessidades
e os avanços da pesquisa?
Por meio da análise de diferentes fontes de informação e dados, levando-se em conta as peculiaridades de cada instituição e as diferentes atividades extensionistas, é possível elaborar um processo de avaliação da
extensão que amplie na IPES o debate sobre a sua missão institucional,
o seu papel na reconstrução do espaço social, suas dificuldades, suas necessidades e prioridades.
Esse estudo pretende discutir alguns conceitos e definições fundamentais para a elaboração do processo avaliativo no âmbito da extensão,
tendo como foco a construção da avaliação como atividade interna dos
77
programas e projetos extensionistas e a avaliação contínua realizada no
âmbito das instâncias de gestão da extensão na IPES. Compreende-se
que um sistema de avaliação abrangente pode ajudar a garantir que as
atividades extensionistas continuem sendo apropriadas e a estabelecer a
resolubilidade das mesmas, identificando se elas são relevantes, tendo em
vista as necessidades de quem se pretende atingir.
3.1. Avaliação no contexto de atuação do Fórum
A preocupação com a construção dos princípios que poderiam nortear
a implantação de uma avaliação da extensão universitária não é recente,
principalmente para as IPES. Em 1991, o V Encontro Nacional, realizado
em São Luís (UFMA), registrava a necessidade de se trabalhar o tema
avaliação na extensão e a construção de indicadores para tal. Em 1992,
apontando na mesma direção, a Coordenação Nacional do Fórum publica
o documento intitulado “A extensão universitária no Brasil: contribuição
ao diagnóstico”, que reitera a necessidade de se estabelecer parâmetros e
elaborar indicadores relevantes para subsidiar o processo de avaliação e
aperfeiçoar a prática extensionista. O documento conclui que a definição
dos indicadores diagnósticos da extensão não pode ser mais protelada,
correndo-se o risco de que as ações extensionistas continuem marginalizadas nos processos de avaliação acadêmica por falta de medição.
Em junho de 1993, o VII Encontro Nacional, realizado em Cuiabá
(UFMT), teve como tema a “Avaliação da Extensão no contexto da Autonomia Universitária”, quando foram estabelecidos os seguintes princípios
para orientar o processo de avaliação:
- a extensão universitária é processo educativo, cultural e científico;
- a extensão universitária deve caminhar articulada com o ensino e a
pesquisa;
- a extensão articula as relações entre a comunidade acadêmica e a sociedade no sentido da transformação social;
78
- a extensão universitária, como prática acadêmica, deve dirigir seus
interesses para as grandes questões sociais do país e para aquelas demandadas pelas comunidades regionais e locais.
A avaliação da extensão universitária deve considerar sua institucionalização na esfera de atuação ministerial e das instituições de ensino superior. Num primeiro plano, deve-se identificar a existência ou não de um
órgão governamental que trate de políticas de extensão, bem como as
diretrizes políticas desse órgão para a sua atuação. Em relação às IPES, a
avaliação deve considerar a formalização da extensão na estrutura organizacional dessas instituições.
Considerando as peculiaridades de cada instituição, a avaliação da extensão deve abordar três níveis inter-relacionados:
- o compromisso institucional para a estruturação e efetivação das atividades de extensão;
- o impacto das atividades de extensão junto aos segmentos sociais que
são alvos ou parceiros dessas atividades;
- os processos, métodos e instrumentos de avaliação das atividades de
extensão.
O Fórum relacionou como indicadores do compromisso institucional: o
grau de formalização da extensão na estrutura universitária; a definição
clara das políticas institucionais, com explicitação de metas e prioridades; a conceituação e tipologia das atividades de extensão; a existência
de sistemas de informação sobre as atividades desenvolvidas; o grau de
participação da extensão no orçamento da IPES; o grau de valorização
nas carreiras docente e técnico-administrativa; a existência de programas institucionais de fomento às atividades de extensão; o envolvimento
dos docentes nas atividades; a interação das atividades de extensão com o
ensino e a pesquisa e a inserção das atividades de extensão nos programas
departamentais.
79
Os impactos sociais das atividades teriam os seguintes indicadores: relevância social, econômica e política dos problemas abordados nas instituições; segmentos sociais envolvidos; interação com órgãos públicos
e privados e segmentos organizados; objetivos e resultados alcançados;
apropriação, utilização e reprodução, pelos parceiros, do conhecimento
envolvido na atividade de extensão; e o efeito da interação resultante da
ação da extensão nas atividades acadêmicas.
Já o terceiro nível deve ser entendido como a formalização de instrumentos específicos - propostas e projetos - que envolvam as instâncias acadêmicas na análise e avaliação dos métodos, processos e instrumentos de
avaliação, tanto pelo parecer dos eventuais parceiros quanto pela atuação
de consultores internos e externos.
Em 1997, o XI Fórum Nacional, realizado em Curitiba (UFPR), discutiu
o tema “Avaliação da Extensão Universitária e o Programa de Avaliação
Institucional das IPES Brasileiras/PAIUB”. Esse programa propôs o
fomento de uma cultura avaliativa da IPES, de modo a envolver toda a
comunidade acadêmica na discussão sobre a qualidade dos cursos oferecidos e, principalmente, sobre o cumprimento da função social das IPES.
Ao solicitar projetos próprios de avaliação institucional às IPES, o PAIUB
evoca a avaliação quantitativa e a avaliação das diversas dimensões da vida
acadêmica - ensino, pesquisa, extensão e administração.
O debate propiciou a elaboração de um documento com propostas de
indicadores por região. Esse trabalho recuperou as conclusões do VII
Fórum, realizado em Cuiabá (UFMT), e acrescentou indicadores quantitativos à avaliação da extensão universitária.
O XII Encontro Nacional do Fórum de Pró-Reitores de Extensão das
Instituições Públicas de Educação Superior Brasileiras, realizado em
dezembro de 1997, no MEC, em Brasília, selecionou, entre outros
aspectos, os indicadores quantitativos das ações extensionistas. Esses
indicadores foram assim definidos: número de projetos desenvolvidos,
público estimado, número de eventos realizados, público beneficiado,
80
tipos de cursos de extensão realizados, número de certificados expedidos, número de produtos elaborados – CDs, vídeos, filmes, cassetes
–, prestação de serviço realizado e número de municípios atendidos em
ações extensionistas.
Em todos esses momentos e ações permanece a intenção de elaborar
e consolidar procedimentos e instrumentos de avaliação da extensão
universitária em âmbito nacional. Por fim, no XV Fórum, realizado em
Campo Grande (UFMS), foi criado o Grupo Técnico de Avaliação com
o objetivo de construir uma proposta de avaliação da extensão universitária.
Esse GT apresentou uma primeira versão do documento em dezembro
de 1999, em Brasília, e uma versão mais elaborada, ainda não definitiva,
no XVI Fórum, realizado em João Pessoa (UFPB), em junho de 2000.
Nessa mesma ocasião, o Fórum realizou o I Encontro Nacional de Avaliação da Extensão Universitária.
A finalização do documento “Avaliação da Extensão Universitária”,
elaborado pelo Grupo de Trabalho de Avaliação do FORPROEX, em
dezembro de 2000, considerou, entre outros aspectos, que para avaliar o
contexto, os objetivos, as atividades e os efeitos da extensão na IPES, seria necessário investigar aspectos norteadores do plano pedagógico institucional, principalmente os relacionamentos à política, à infraestrutura e
à relação entre IPES e sociedade. Tais dimensões foram selecionadas por
conterem elementos significativos sobre a institucionalização e gestão da
extensão e por reunirem fatores passíveis de serem avaliados.
Assim, o documento apresenta como proposta que a avaliação da extensão ocorra nas seguintes dimensões: política de gestão, infraestrutura,
relação IPES/sociedade, plano acadêmico e produção acadêmica.
A política de gestão contida nas finalidades, objetivos, fomento e atribuições da extensão, bem como seus instrumentos de ação denunciam se a
missão da IPES incorpora a função extensionista.
81
A dimensão infraestrutura informa sobre as condições físicas e gerenciais
reais de realização da extensão e sobre as possibilidades de se consolidarem as metas almejadas.
A relação IPES/sociedade revela de que modo as atividades de extensão
estão presentes na sociedade, quais seus pressupostos e finalidades e
como a IPES interage com a sociedade no sentido de transformações
recíprocas.
O plano acadêmico analisa as possibilidades de incorporação da extensão
na vida acadêmica, valorizando as experiências desenvolvidas pelo conjunto de participantes na ação extensionista (professores, funcionários e
alunos).
A produção acadêmica trata da captação dos produtos resultantes da ação
da extensão, que elabora e dissemina conhecimentos e que, no âmbito
universitário, tem o seu valor reconhecido.
Por meio da análise dessas dimensões, levando-se em conta as peculiaridades de cada instituição, seria possível elaborar uma avaliação da
extensão que trouxesse para a IPES o debate sobre a sua missão institucional, o seu papel na reconstrução do espaço social, suas necessidades
e prioridades. A identificação das dimensões da extensão na instituição
contribuiria para ampliar a percepção e análise das atuais práticas de extensão, pesquisa e ensino desenvolvidas na IPES.
Entretanto, para além do olhar da avaliação na perspectiva da institucionalização ministerial, é preciso construir uma avaliação da extensão
que possa incorporar-se à cultura da instituição, um processo que deve
iniciar-se, necessariamente, integrado ao processo de avaliação institucional da IPES e deve ter como fundamentos a missão e o perfil da
instituição. Um outro aspecto fundamental nesse direcionamento é a
apropriação dos conceitos fundamentais que podem auxiliar e orientar
a realização de um processo de avaliação que seja de fato institucional,
democrático e gerador de mudanças.
82
Catani et al. (2002, p. 100) afirmam que existem duas tendências opostas
que balizam a avaliação: uma que tem a finalidade de regulação e controle, centrados em instrumentos estandardizados; e outra de caráter
emancipatório, que promove a compreensão e o desenvolvimento institucional. A primeira enfatiza os resultados e os produtos, fortalecendo
a perspectiva do Estado avaliador, e na segunda a avaliação toma um
caráter formativo, buscando a melhoria da instituição e dos processos de
gestão, respeitando a autonomia dos atores envolvidos.
A opção da CPAE sempre foi pela defesa da superação do controle e
pelo envolvimento autônomo e democrático dos atores acadêmicos no
desenvolvimento da IPES. Para tal, foram elaboradas nos últimos anos
pesquisas sobre a extensão universitária e conduzidos programas de formação em avaliação para profissionais que atuam na gestão da extensão.
Um pouco das ideias centrais, conceitos básicos sobre avaliação e debates
que nos ajudam a pensar o caminho institucional estão nesse trabalho.
3.2. Revisitar conceitos da avaliação: um caminho
para construir a avaliação da extensão
A avaliação na IPES é uma prática corrente no campo do ensino. Professores avaliam constantemente os alunos, que podem, por sua vez, avaliar
o professor ao final do período letivo. As bancas de defesa de trabalhos
de conclusão de curso, monografias, dissertações e teses também são
eventos de avaliação. Os cursos são avaliados anualmente, seja pela prova
aplicada aos alunos, seja pelas auditorias realizadas pelo Ministério da
Educação. A IPES em si também é avaliada pelos órgãos públicos de controle, como os Tribunais de Conta e as Controladorias, e pelos processos
de avaliação estabelecidos pelo SINAES.
No caso da pesquisa, é comum a avaliação por pares, seja na submissão
de artigos científicos, seja para a aprovação de projetos de pesquisa em
editais. Nesses casos, as regras do jogo são normalmente definidas antes
e constam dos próprios editais ou das normas de publicação.
83
A extensão universitária, normalmente, não tem um protocolo claro de
avaliação, nem um histórico avaliativo destacável. O levantamento realizado pela Comissão Permanente de Avaliação da Extensão, instância técnica do Fórum de Pró-Reitores de Extensão das Instituições Públicas de
Educação Superior Brasileiras, mostrou que a maior parte das IPES que
responderam aos questionários com dados de 2004 afirmavam realizar a
avaliação da extensão sem, no entanto, possuir um sistema de avaliação
ou, muitas vezes, um sistema de registro das ações de extensão.
Essa situação, aparentemente incoerente, pode ser explicada pela falta
de consistência do próprio conceito do que é avaliação, sendo a razão
pela qual a CPAE tem investigado a existência de sistemas avaliativos.
Para a CPAE, a importância da avaliação reside na confirmação clara e
inequívoca do papel da extensão universitária como um componente acadêmico capaz de promover profundas mudanças na formação dos alunos
e na sociedade como um todo. Sem avaliação, a defesa do conceito da
extensão passa a ser apenas filosófica, no campo das ideias, e, portanto,
sujeita a contestações com a mesma falta de argumentos.
Se a extensão não tem um processo avaliativo constante, como podemos
valorá-la? Como podemos propor a repetição de uma ação? Como incorporaremos as ações de extensão na imagem da IPES? Como comprovaremos
que os recursos foram ou serão bem investidos? Como convenceremos
alunos, técnicos e docentes a participar das ações? E a comunidade externa?
A necessidade da avaliação da extensão, portanto, também origina-se
da sua própria dimensão extramuros ou fora da sala de aula – os outros
dois processos de aprendizado e formação de conhecimento, ensino e
pesquisa, são naturalmente avaliados de forma constante, tanto interna,
quanto externamente.
A questão que se coloca é que, do ponto de vista do reconhecimento institucional, a extensão precisa participar dos indicadores e modelos de avaliação ditados pelo MEC, entretanto, o modelo quantitativo e produtivista não
84
se mostra apropriado para a visão emancipatória, que deve ser inerente
ao processo extensionista.
No século XXI, não há mais a necessidade de luta pela institucionalização
formal da extensão universitária, reconhecida pela Constituição Federal,
pelo Plano Nacional de Educação e outros dispositivos legais. A luta que
se trava é no campo operacional. A extensão universitária, per si, existe
e será necessário institucionalizá-la desde o início nas novas IPES criadas
pela política de expansão do ensino superior. O momento atual é de
manter as conquistas no campo institucional e político, como a própria
realização desse curso, mas permitir e até exigir processos avaliativos
que mostrem os reais resultados dos últimos 25 anos, que é a idade do
conceito de extensão, elaborado e defendido pelo Fórum desde 1987.
Um primeiro entendimento sobre a avaliação é de que os processos avaliativos são essencialmente políticos. Avalia-se para dar uma noção de
valor, de validade e de importância a uma ação realizada. Apenas com
uma avaliação desenhada de forma adequada e criteriosa pode-se entender realmente quais foram os resultados do esforço realizado e decidir
pela continuidade ou não do que está se realizando ou apoiando. Não
avaliar significa voar às cegas, confiando em sensações momentâneas,
subordinando-se a políticas institucionais ou públicas sem contestá-las,
desperdiçar recursos e oportunidades e trabalhar com pouca chance de
sucesso. Mas como dar início a todo esse processo?
Toda ação, por menor que seja, pode ser avaliada, desde que os elementos necessários para isso sejam coletados na quantidade suficiente, com
a qualidade necessária e no momento correto. O esforço e o custo necessários para ter estas informações é que vão limitar as ações que serão
avaliadas ou o nível de avaliação que será possível realizar. Também podem influenciar nesta decisão as necessidades políticas e institucionais,
como no caso em que, como exemplo, o Reitor deseja saber algum valor
referente aos eventos, por exemplo, ou a resposta a avaliações externas.
85
Para uma ação qualquer ser avaliada é preciso que ela tenha sido planejada – ações espontâneas não têm, normalmente, um objetivo definido,
metas estabelecidas, relações causais estruturadas. Ou seja, a avaliação
será mais consistente e mais poderosa quanto melhor for o projeto de sua
execução. Mas até que ponto a extensão trabalha com projetos no sentido
da experimentação e aprendizagem contínua, sendo o projeto um empreendimento com objetivo identificável, que consome recursos e opera sob
pressão de prazos, custos e qualidade (KERZNER, 2002).
Se não podemos considerar nossa ação como “projetos” (aqui, fica impossível utilizar a mesma denominação usada para um nível de ação de
extensão conforme conceituação do Fórum, embora se esteja utilizando
projeto como um termo técnico da área do planejamento), fica difícil
pensar na avaliação.
É preciso, ainda, considerar as diversas dimensões de avaliação da extensão para além da quantificação de seu tamanho institucional e extramuros e seus impactos acadêmicos, incluindo aí a transformação no
processo de aprendizagem dos alunos e os impactos sociais.
Além disso, de forma geral, as dificuldades encontradas na avaliação da
extensão, considerando a suficiência de recursos humanos, financeiros
e de tempo e a clara vontade política de realizar a avaliação, podem ser
resumidas a três fatores:
- precariedade das formas de registro completo ou adequado da ação –
infelizmente, é comum que as ações de extensão tenham um registro
ruim ou incompleto de sua proposição, de sua execução e de seus resultados. No caso da avaliação completa de um programa com três anos
de duração, seria necessário conhecer a situação de todos os envolvidos
antes do início da ação, entender claramente o que se pretendia com
a ação de extensão, o desenvolvimento de todas as atividades ao longo
dos três anos, as alterações realizadas em relação ao planejamento original, os produtos obtidos com cada atividade, os recursos humanos,
materiais e financeiros utilizados e a situação dos envolvidos logo após
86
a conclusão do programa e dois ou mais anos após esta data. Ou seja,
seria necessário o acompanhamento deste programa por um período
de cinco anos ou mais;
- explicitação pouco clara ou ausência de identificação do beneficiado
pela ação de extensão – programas ou projetos amplos, tanto pela
duração, como pela abrangência espacial, podem ter dificuldade em
identificar, registrar e acompanhar os sujeitos desta ação. Quando o
fazem, podem perder o contato com estes sujeitos, o que inviabiliza
alguns tipos de avaliação de impacto;
- inadequada ou ausente capacitação técnica para realizar a avaliação
– embora uma avaliação complexa seja possível, contando com ferramentas técnicas já discutidas, é necessário capacitar a equipe da Pró-Reitoria ou equivalente para realizar essa avaliação ou para entender e
aplicar corretamente os seus resultados.
Na medida em que for possível identificar a resolução de tais fatores, dá-se início a todo um processo de avaliação.
3.2.1 O que é avaliar, monitorar e acompanhar?
Pode-se dizer que não existe um consenso em termos de definição de
avaliação, mas existe consenso em relação ao julgamento na avaliação. A
conceituação de avaliação que mais se aproxima da prática extensionista
é a referente a processos educativos e a processos sociais. No sentido
lato, avaliar consiste em emitir um juízo de valor sobre “algo” – objeto,
situação ou processo –, baseando-se em determinados critérios de valor.
Em sentido mais estrito a avaliação precisa de ser mais formalizada, sistemática, de maneira a conferir maior grau de objetividade e fundamentação
para o julgamento a ser realizado. Segundo Aguilar e Ander-Egg (1994),
a principal diferença entre avaliação informal e a sistemática está nos
métodos utilizados. A avaliação sistemática trata-se de uma pesquisa avaliativa que se baseia no uso de métodos científicos.
87
Avaliação é uma forma de pesquisa social aplicada, sistemática,
planejada e dirigida; destinada a identificar, obter e proporcionar
de maneira válida e confiável dados e informação suficiente e
relevante para apoiar um juízo sobre o mérito e o valor dos
diferentes componentes de um programa (tanto na fase de
diagnóstico, programação ou execução), ou de um conjunto
de atividades específicas que se realizam, foram realizadas ou
se realizarão, com o propósito de produzir efeitos e resultados
concretos; comprovando a extensão e o grau em que se deram
essas conquistas, de forma tal que sirva de base ou guia para uma
tomada de decisão racional e inteligente entre cursos de ação,
ou para solucionar problemas e promover o conhecimento e
compreensão dos fatores associados ao êxito ou ao fracasso de
seus resultados. (AGUILAR; ANDER-EGG, 1994, p. 31-32)
Nesse conceito reúnem-se diversos aspectos e entendimentos capazes de
orientar processo de avaliação sobre avaliação. Cabe, no entanto, ressaltar que optamos por esse entendimento dado que a avaliação passa a ser
orientada pela utilização de procedimentos científicos para identificação,
obtenção e sistematização das informações necessárias ou pertinentes ao
processo analisado. Essa exigência de métodos ou de técnicas de pesquisa
social confere à avaliação condições essenciais para que se possa emitir
juízos de valor.
Complementando este conceito, a extensão também tem se utilizado dos
propósitos definidos por Cohen e Franco (1993):
Processo orientado a determinar sistemática e objetivamente a
pertinência, eficiência, eficácia e impacto de todas as atividades à
luz de seus objetivos. Trata-se de um processo organizativo para
melhorar as atividades ainda em marcha e ajudar a administração
no planejamento e programação e futuras tomadas de decisões.
(p. 76)
88
Essa definição ressalta a importância da avaliação como um processo
e inerente à gestão de um programa. A extensão, de um modo geral,
quando realiza a avaliação, a toma como algo isolado, realizado fora do
contexto da gestão tanto de um projeto, como até da gestão de uma política implantada por uma IPES.
Cabe ressaltar ainda aspectos como a pertinência, ou seja, a adequação
do modelo com os objetivos do projeto, da eficiência, que analisa a relação entre insumos e produtos, e por último, da eficácia ou grau em que
são alcançados os objetivos em termos de transformação da realidade.
Ainda quanto à avaliação dos resultados em termos de eficiência, a avaliação enfoca a relação entre meios e fins, normalmente atenta à dimensão
econômica dos programas. Em termos de eficácia, a avaliação se orienta
para os objetivos propostos, para confirmar se as transformações pretendidas foram realizadas.
Roche (2002) conceitua avaliação de impacto como “análise sistemática
das mudanças duradouras ou significativas – positivas ou negativas, planejadas ou não – nas vidas das pessoas e ocasionadas por determinada
ação ou série de ações” (p. 37). A conceituação do autor nos remete à
intrincada compreensão sobre a capacidade de os programas produzirem mudanças ou mesmo se pode ser atribuída a um único programa as
transformações identificadas. O mesmo autor salienta que as avaliações
de impacto são o resultado de um conjunto de fatores que se combinam
de determinada forma.
A avaliação da eficiência revela o grau de utilização de recursos. Responde a questões básicas, vinculadas ao grau de esforço da instituição ou da
equipe em realizar essa ação, tais como:
- Quantas horas?
- Quantas salas?
- Quantas cópias?
89
- Quantas pessoas?
- Quantas viagens, quantos almoços, quantas diárias?
- Quanto custou?
- Quanto rendeu?
O coordenador da ação deve realizar esta avaliação, para conhecer o esforço despendido na ação, indicar o retorno do investimento, qualificar
os recursos utilizados, indicar a necessidade de substituição ou aquisição
de novos equipamentos ou serviços, entre outras possibilidades semelhantes. Esse aumento de responsabilidade do coordenador pode gerar
insatisfação pela exigência de um maior esforço. Por isso, a política avaliativa da IPES deve considerar, primeiro, certo grau de descontentamento, e, em segundo lugar, a possível demanda de apoio para a realização
desta avaliação.
Por sua vez, a Pró-Reitoria de Extensão ou estrutura similar também
deve realizar um processo de avaliação da eficiência da sua atuação em
relação às ações de extensão. Sugere-se que se possa conhecer quais os
recursos envolvidos na ação, verificar o retorno do investimento, identificar a demanda do público, qualificar os recursos utilizados, indicar
a necessidade de substituição ou aquisição de novos equipamentos ou
serviços, entre outras possibilidades. Com esses resultados, pode-se
demonstrar a eficiência da Pró-Reitoria de Extensão no atendimento
das demandas dos diferentes projetos, bem como mostrar aos conselhos superiores ou à administração central da IPES a destinação dos
recursos disponibilizados. Em termos de política, é necessário definir
se a equipe da Pró-Reitoria tem condições de realizar esta avaliação
ou se isso ficará a cargo de outra instância, como uma secretaria de
avaliação institucional.
A avaliação da eficiência exigirá que o coordenador da ação de extensão
mantenha os registros da utilização dos recursos, do recebimento dos
inputs solicitados, das horas dedicadas à ação, das razões de falha e dos
90
motivos de sucesso, entre outras informações. A fonte básica destes dados é o processo de monitoramento da ação. Entre estas informações,
uma pode ser muito útil no caso de oferecimento de outras ações semelhantes, que é a forma de divulgação da ação e dos motivos que levaram
o público a buscá-la.
A avaliação da eficiência da ação da Pró-Reitoria exigirá os registros da
real utilização dos recursos solicitados, da entrega dos inputs demandados, das horas alocadas à ação pelo coordenador e equipe, das razões de
falha e dos motivos de sucesso da atitude da Pró-Reitoria.
A coleta desses dados pode ser realizada a partir de formulários de proposta de ação e de roteiros para elaboração de relatórios bem construídos, ou seja, que sejam indicadas claramente as informações necessárias
e a forma como os coordenadores devem informá-las. Outra maneira de
realizar a obtenção de dados é a partir de auditorias ou entrevistas junto
aos coordenadores de ações de extensão, através das quais a equipe de
avaliação buscará identificar e coletar as informações necessárias.
Outra forma já adotada por algumas IPES é a implantação de sistemas de
registro de ações, concebidos a partir da avaliação. Esta alternativa exige
um esforço prévio da IPES, pois é necessário definir a política de avaliação, determinar os parâmetros que serão avaliados, aprovar esta política
junto aos conselhos superiores ou à administração central, divulgar a
política e construir o sistema de registro, preferencialmente informatizado, com preenchimento on-line pelo coordenador. Esse sistema, de forma
ideal, irá automatizar a obtenção de índices, relações e taxas relacionadas
aos parâmetros, evitando que o coordenador tenha que fazê-lo de forma separada. Com isso, evita-se que as resposta obtidas não revelem o
desenvolvimento real da ação ou a obtenção de avaliações extremamente
genéricas e imprecisas, situações que são observadas quando o coordenador é obrigado a preencher um instrumento avaliativo por conta de Resoluções. Respostas padronizadas, como a ação foi executada como planejado;
os resultados obtidos são plenamente satisfatórios; todos gostaram muito, não permitem construir um juízo de valor nem de eficiência da ação de extensão.
91
Apesar de serem contestáveis e carentes de informações de real interesse
para a IPES, estas respostas, infelizmente, são muito frequentes.
A avaliação da eficácia mede o grau de satisfação ou de resolução do problema existente. É uma avaliação mais profunda e interessante do que a
de eficiência, pois permite vislumbrar ganhos acadêmicos.
Esse nível de avaliação também deve ser realizado pelo coordenador da
ação, pois ele pode responder questões como:
- O curso resolveu o problema apresentado no material de divulgação?
- Os alunos sabem responder às questões apresentadas a respeito do problema?
- O grau de conhecimento dos alunos sobre o problema foi alterado com
a realização do curso?
- Os bolsistas souberam apoiar os alunos?
O coordenador também pode avaliar a eficácia da ação da Pró-Reitoria,
respondendo questões como:
- A Pró-Reitoria atendeu as demandas da forma solicitada e no tempo
necessário?
- Os materiais fornecidos aos alunos são legíveis, estão completos, organizados?
- As salas estavam limpas e arrumadas como solicitado? O café era bom?
Havia café sem açúcar? E água?
A Pró-Reitoria pode avaliar a eficácia de uma ação, de uma série de ações
semelhantes ou das ações de um mesmo coordenador se estiver pesquisando o grau de resolução de situações-problema que sejam de interesse
da instituição ou para verificar a qualidade do que está sendo oferecido
em seu nome.
92
Os instrumentos para avaliar a eficácia são testes, enquetes, práticas, simulações, questionários, entrevistas ou a ação de um avaliador externo.
A avaliação de efetividade medirá os resultados obtidos logo após o término da ação, tanto quantitativos como qualitativos. Esses resultados,
por sua vez, podem ou não ser duradouros, podem ou não gerar mudanças de comportamentos e de atitudes permanentes. O que queríamos
com a ação? O que foi modificado na realidade trabalhada? O que não
pode ser modificado na realidade trabalhada e por quê? O que mudou no
estudante envolvido? Como essa mudança impactou na formação acadêmica do estudante?
A avaliação de efetividade é mais profunda, indica a permanência da
resolução do problema enfrentado e necessita de mais recursos para ser
executada. Não é adequada para ações de baixa complexidade, como
eventos e cursos, devendo ser proposta para programas e alguns projetos
mais destacados da IPES. Não deve ficar a cargo do coordenador da ação,
sendo mais indicada para a Pró-Reitoria ou uma estrutura específica de
avaliação institucional, por exemplo. Exige uma pesquisa específica, feita
após a realização da ação – o prazo pode ser superior a dois anos, por
exemplo. Exige uma base de comparação, para mensurar o grau de resolução da situação que gerou a ação. Utiliza-se de questionários, entrevistas, diagnósticos, ferramentas estatísticas, entre outros instrumentos.
A avaliação de impacto mede mudanças profundas e duradouras da situação problema. Necessita de um cenário-base de comparação, que deve
caracterizar perfeitamente a condição inicial; aplicação de pesquisas
específicas para isolar outros fatores de mudança da realidade; muitos recursos, financeiros e humanos. Ou seja, a avaliação de impacto necessita
de uma etapa ex ante e outra ex post e que contemple elementos de análise
dos impactos acadêmicos e sociais, buscando compreender as mudanças
no processo de formação do aluno e da equipe e as reais transformações
ocorridas na realidade social.
93
Só pode ser feita depois de encerrada a ação. Portanto: é necessário um
registro perfeito do público que sofreu a ação para realizar esta avaliação
e ser possível recuperar a evolução entre a ação e a época de avaliação.
Tais conceitos são úteis na constituição de parâmetros tanto para a busca
de informações, como para fundamentar aos diferentes atores envolvidos
a se posicionarem e construírem um julgamento de valor.
A adoção desses conceitos destaca o caráter processual, dinâmico e multifacetado que envolve uma atribuição de valores pautada em critérios
válidos e legítimos e o seu uso no sentido de produzir melhorias na implantação de um processo e reavaliação de sua própria concepção.
Processualmente, há que se considerar as diferenças entre avaliar, acompanhar e monitorar. O acompanhamento é um processo de menor complexidade, pois pode ser apenas descritivo, enquanto o monitoramento
deve sugerir alterações no andamento do processo. O acompanhamento
pode se resumir a um relato das atividades realizadas feitas com um
olhar essencialmente externo, não reativo e não propositivo. Ou seja,
acompanhar é metaforicamente como ver passar uma procissão olhando
pela janela.
O monitoramento, no entanto, é um tipo de avaliação contínuo e faz
parte integral do gerenciamento do projeto. O monitoramento é primordialmente descritivo. O acompanhamento pode ser apenas descritivo,
enquanto o monitoramento deve sugerir alterações no andamento do
processo e justificar por que essas alterações foram indicadas. Por essa
definição, observa-se que o monitoramento não deixa de ser uma forma
de avaliação, mas uma avaliação não é um monitoramento.
A avaliação é mais analítica, é proposital e é realizada à parte da ação.
A avaliação é conduzida periodicamente, tanto pela equipe do projeto,
quanto pelos beneficiários. Também pode contar com a ajuda de equipes
externas.
94
De fato, no caso da extensão, o processo de avaliação, para ter o sucesso
pretendido, deve contar com a participação efetiva dos avaliados. Esta
participação pode ser prejudicada pela reação de grande parte das pessoas em relação à avaliação. Generalizando, pode-se perguntar: quem gosta
de ser avaliado?
Na prática cotidiana das equipes envolvidas na extensão, tem-se mais
evidente o nível do acompanhamento em que os gestores são capazes
de relatar se uma ação ocorreu, se terminou no prazo previsto ou não,
se utilizou ou não os recursos solicitados. O acompanhamento não traz
maiores informações e, por isso, não permite entender o que ocorreu,
nem como os resultados são ou não válidos ou interessantes (para dizer o
mínimo). Já o monitoramento permite corrigir a rota da ação enquanto
ela está ocorrendo, introduzir novos elementos julgados necessários,
eliminar desperdícios, entre outras vantagens sobre o acompanhamento.
Do resultado do monitoramento pode-se retirar uma avaliação de eficiência e alguns elementos de eficácia. Se o monitoramento prosseguir
após a execução da ação (situação rara!), poderia alimentar uma análise
parcial de efetividade. O monitoramento presta-se, portanto, a uma análise do processo em si.
A avaliação é a forma mais completa e complexa de valoração. De acordo
com o pretendido, inicia-se antes de a ação ser implementada e poderá
se estender anos após o seu término. É a única forma de entender plenamente o processo e os resultados.
A avaliação mais completa só se justifica para as ações mais destacadas da
IPES, embora os níveis básicos (eficiência e eficácia) possam ser aplicados
para todas as ações. O monitoramento é uma postura básica para uma
gestão de projetos. Nem deveria ser discutida a sua necessidade! Deveria
sempre ser realizado, todo o tempo, em todas as ações. Pelo nosso entendimento, o acompanhamento só justifica ser destacado para as ações que
tenham estruturas específicas de execução, como é o caso de núcleos e
centros interdisciplinares, quando a Pró-Reitoria acompanharia os relatos dessas instâncias, que seriam, por sua vez, responsáveis pela avaliação
95
e monitoramento dessas mesmas ações. Colocando de outra forma: mães
dificilmente avaliam os seus próprios filhos (mas avaliam os das outras
mães, emitindo, sem nenhum problema, juízo de valor), monitoram seus
filhos quando são adolescentes e os acompanham quando já saíram de
casa...
3.2.2 Tipos de avaliação e níveis de avaliação
Da própria multiplicidade de conceitos de avaliação advém a necessidade
de explicitação clara dos critérios e parâmetros utilizados para a emissão
do julgamento. A compreensão de certos termos é capaz de auxiliar o
gestor a orientar o processo de avaliação a ser implementado.
A avaliação interna é aquela realizada pela própria equipe executora da
ação, tem a vantagem de conhecer mais profundamente o problema e
o processo, pode ser utilizada para redirecionar os rumos e discutir a
política interna da IPES, por exemplo. Como desvantagem, pode não ser
crítica o suficiente para determinar o valor de uma ação mal executada
ou planejada. A avaliação externa é realizada por avaliador que não fez
parte da ação ou não é da instituição. Tem a vantagem teórica da imparcialidade, mas pode pecar pelo desconhecimento dos fatores que condicionaram o processo e os resultados, não realizar a análise integrada com
a política institucional ou ser superficial nessa integração.
A avaliação quantitativa utiliza valores numéricos para definir as alterações observadas. É a avaliação mais clássica, que incorpora muitos
conceitos da Economia. Espera-se que seja mais inteligível do que a qualitativa, mas pode levar a interpretações incorretas dos resultados, mesmo
que os números estejam corretos. É mais adequada para a avaliação do
processo, ou seja, para a avaliação de eficiência e eficácia. A avaliação
qualitativa utiliza informações que não são normalmente expressas com
números, como satisfação, felicidade, bem-estar, etc. Por serem essencialmente subjetivas, podem ser difíceis de avaliar, principalmente se a
ação gerar muitas informações qualitativas. Também necessita de uma
análise estatística robusta para não cair em descrédito.
96
De certo modo, o uso das informações qualitativas é essencial para entender mudanças de comportamento, de percepção, de participação,
de independência. Assim, são essenciais para os níveis mais avançados
de avaliação, que trabalham com os resultados – efetividade e impacto.
Quase sempre é possível transformar informações qualitativas em quantitativas, através de escalas comparativas, por exemplo: em uma escala
de 0 a 10, qual seria o seu grau de satisfação antes da realização da ação?
Logo depois da realização, qual seria o grau na mesma escala? E dois anos
depois, qual seria o valor?
A avaliação ex ante é realizada antes de a ação ser implementada; parte da
identificação da situação atual e do grau de alteração que se deseja obter
com a realização da ação. Compara essa situação futura com o esforço
a ser realizado e valida ou não as condições para a realização da ação.
É o caso das análises de viabilidade, da relação custo/benefício de uma
proposta.
A avaliação ex post é realizada após a ação, podendo ocorrer logo após
ou muito tempo após o término. Ela permitirá entender o que foi gasto,
o que resultou efetivamente, o que deu certo, o que deu errado, mas
sempre com dados e informações reais. Portanto, não serve para decidir
sobre a realização ou não da ação, mas permite avaliar se o planejamento
anteriormente realizado era consistente.
Outro elemento está nas instâncias de avaliação, é preciso pensar o ethos,
o lugar, em como avaliar cada ação, os fatores que interferem para o
sucesso e insucesso; é preciso avaliar o sistêmico, como ocorre o conjunto e respostas das ações e suas articulações, como impactam sobre a
realidade inter e externa à IPES; é preciso avaliar o institucional, como as
ações de extensão são pertinentes à política e ao pensamento institucional sobre a extensão.
É preciso considerar que referenciais teóricos e metodológicos em que se
fundamentam a extensão, na medida em que apresentam uma diversidade de formas e uma dinâmica própria, tornam seus processos de trabalho
97
flexíveis diante da realidade social e cultural dos indivíduos. Todavia, o
tempo de resposta no que se refere à organização comunitária, ou para
a mudança de uma realidade trabalhada, pode não gerar respostas quantificáveis num semestre letivo, e, assim, os resultados que remetam às
publicações e às conclusões de experiências podem demorar a despontar.
3.2.3 Considerações finais
A definição política dos significados e intencionalidades para extensão é
importante para a compreensão da relação avaliação/extensão universitária no campo do acadêmico e do social. Na medida em que não há clareza sobre o papel que a extensão deve representar no interior da IPES,
não há condições de propor de forma autônoma o perfil de avaliação que
se quer adotar para esse fazer.
Da mesma forma que não há como considerar a avaliação da extensão
desarticulada do que se quer para a extensão, não há como considerar
uma avaliação da extensão desarticulada do processo de avaliação institucional, principalmente porque tal avaliação serve de apoio para se operar
a institucionalização da extensão, entretanto, é importante destacar que
a avaliação institucional não basta em si mesma, é preciso que se vá além
dos indicadores institucionais do Ministério, ou da valoração apenas qualitativa, e que se busque construir modelos de avaliação autônomos que
contemplem a visão dos atores institucionais em seus processos e lutas
internas, e que se busque contemplar os impactos acadêmicos e sociais,
principalmente do campo qualitativo.
Os conceitos e fundamentos que foram apontados nesse trabalho sinalizam
para a necessidade de que cada IPES sistematize seu processo de avaliação
da extensão de forma objetiva, gradual, construído de forma democrática
e com o envolvimento dos professores, estudantes, servidores e comunidade envolvida com as ações, contemplando todos os níveis (ação, projeto,
programa, extensão, universidade) e tempos operacionais (ex ante, ex post).
98
referências
AGUILAR, Maria José; ANDER-EGG, Ezequiel. Avaliação de serviços e programas
sociais. Petrópolis: Vozes, 1994.
CATANI, Afrânio Mendes, et al. A política de avaliação da educação superior
no Brasil em questão. In: DIAS SOBRINHO, José; RISTOFF, Dilvo I. (Org.).
Avaliação democrática: para uma IPES cidadã. Florianópolis: Insular, 2002.
FORPROEX. Avaliação Nacional da Extensão Universitária. Brasília: MEC/Sesu;
Paraná: UFPR; Ilhéus: UESC, 2001.
KERZNER, H. Gestão de projetos: as melhores práticas. Porto Alegre: Bookman,
2002.
NOGUEIRA, Maria das Dores Pimentel (Org.). Extensão universitária: diretrizes
conceituais e políticas. Belo Horizonte: PROEX/UFMG, 2000.
ROCHE, C. Avaliação do impacto dos trabalhos de ONGs: aprendendo a valorizar as
mudanças. São Paulo, Cortez: ABONG; Oxford, Inglaterra: Osfam, 2002.
SERRANO, Rossana M. S. M. Avaliação institucional da extensão universitária
na UFPB: a regulação e a emancipação. Tese PPGE/UFPB, João Pessoa,
2012. Disponível em: <http://bdtd.biblioteca.ufpb.br/tde_busca/arquivo.
php?codArquivo=2610>.
capítulo
4
a avaliação e a construção de indicadores:
um estudo sobre as principais diretrizes e suas
repercussões para a avaliação da extensão
100
capítulo 4
a avaliação e a construção de indicadores:
um estudo sobre as principais diretrizes e suas
repercussões para a avaliação da extensão
Fernando Setembrino Cruz Meirelles
Sonia Regina Mendes dos Santos
4.1. Introdução
O tema avaliação pode ser abordado de diversas maneiras e em relação a
vários tipos de avaliação. A posição que norteia os trabalhos da Comissão Permanente de Avaliação da Extensão (CPAE) do FORPROEXT
é a de ruptura com o paradigma da avaliação fiscalizatória, aquela que
centra a maior parte dos esforços na busca de desvios ocorridos na gestão
da extensão universitária ou nos processos executados. Ao contrário,
entende-se necessário que o processo avaliativo possibilite incorporar e
entender esses desvios como parte do processo de criação e produção das
alternativas que a universidade possui para colocar-se junto aos demais
setores da sociedade.
Nesse novo paradigma, a avaliação, além de uma atividade de rotina
na gestão das atividades extensionistas, deve constituir-se como fonte
permanente de informação e de constante atualização da prática, sendo
capaz de determinar os pontos em que determinada ação teve sucesso,
quais expectativas não foram atendidas, os fatores que contribuíram para
esse sucesso e os que impediram o alcance dos objetivos. Nesse tocante,
o resultado da avaliação pode possibilitar a construção de um conhecimento útil para a instituição universidade, mas também muito útil para
todos aqueles que atuam em processos consistentes de extensão, sejam
eles internos ou externos à universidade.
101
A avaliação que produz conhecimento apropriável pela comunidade não
o faz de forma descontextualizada. A avaliação da extensão não tem sentido se estiver desconectada do cenário que é hoje a extensão universitária, e que geram a própria necessidade de avaliação da função. Contudo,
é de tal monta essa variação do ponto de vista da extensão universitária,
que não se pode abordá-la como se fosse única, como uma possibilidade
ímpar de pensá-la e vivê-la nas universidades públicas do país, mas há
que se considerar as várias “extensões” existentes dentro de uma mesma
universidade.
Acrescente-se a esse aspecto a necessidade de discuti-la também dentro
do projeto de universidade brasileira, sob pena de avançar no debate sobre extensão e, ao mesmo tempo, não contaminar o universidade como
um todo, não atingir os domínios das funções centrais – pesquisa e ensino –, o que transformaria o debate em monólogo solitário e sem maiores
consequências. Por esses motivos, e para que fosse possível abordar a
avaliação das atividades extensionistas e como o pensar sobre ela pode
contribuir para os avanços na universidade na cena nacional, foi preciso
trazer à tona algumas reflexões sobre extensão universitária.
Há de se considerar como ponto de partida que as universidades públicas
não se organizam sobre uma mesma perspectiva predominante no tocante à concepção de extensão, e em uma mesma instituição convivem vários
entendimentos sobre ela. Tal variação pode ser pensada como própria da
universidade, ou seja, do espaço universitário atual, que se defronta com
inúmeros desafios; esses apontam para possíveis transformações profundas, que vão requerer um exame de suas funções e estruturas. Essa
variabilidade de concepções tem reflexos importantes na proposição de
um processo avaliativo. De que modo a extensão tem sido concebida e
implementada? De que modo a avaliação da extensão está articulada com
o projeto de universidade e de avaliação institucional?
É preciso considerar que a extensão, quando adequadamente encaixada
no mandato científico e educativo da universidade, se coloca em seu
devido lugar e, ao mesmo tempo, não pode ser feita a título de mera
102
extensão. Da posição muitas vezes ociosa e de concepção inadequada
na atualidade, é preciso emergir a extensão “no bom sentido”, ou seja,
aquela que aprimora a formação do aluno e contribui para o manejo do
conhecimento na sociedade. Mas que interferências a avaliação pode trazer para o “bom sentido da extensão”? Seria a avaliação uma possibilidade
de contestar a adequação das atividades extensionistas em função das
políticas da universidade pública?
A avaliação, além de seu forte componente político, também é plena de
técnicas científicas, exigindo um processo de elaboração próprio de cada
instituição, de acordo com as suas decisões políticas, acadêmicas e administrativas. Além disso, por meio dela as instituições podem responder
como estão sendo aplicados os recursos e que resultados estão sendo
alcançados.
A discussão que é proposta neste capítulo é a de materialização do processo avaliativo, na definição de dimensões, indicadores e instrumentos
possíveis.
4.2. Preparando a avaliação: dimensões,
indicadores e instrumentos
a) Definindo dimensões
Dimensões de avaliação são as partes principais do problema que deve ser
resolvido ou tratado pela ação de extensão. A definição das dimensões a
serem avaliadas terminará por orientar a seleção dos indicadores e dos
instrumentos. Não é raro que nesta análise de indicadores e instrumentos perceba-se a inadequação da dimensão selecionada.
Dimensões podem ser políticas, processuais, regimentais, acadêmicas...
O Fórum fez um diagnóstico da extensão universitária pública brasileira
no início da década passada utilizando algumas das dimensões definidas
pela CPAE. Entre elas, foram consideradas a institucionalização da
103
extensão, a infraestrutura disponível para a extensão, a produção acadêmica vinculada à extensão, a relação entre a sociedade e a universidade.
Evidentemente, a análise do Fórum é essencialmente política, pois trata
do universo das IPES brasileiras. Tais dimensões, se levadas ao nível de
cada instituição, resultarão em uma avaliação essencialmente da gestão:
como a extensão está institucionalizada nessa IPES, qual a infraestrutura
que a gestão (Reitoria, Pró-Reitoria, Direções, etc.) coloca à disposição
das ações extensionistas, qual foi a produção acadêmica obtida pelas ações
de extensão, como se dá a relação com os outros setores da sociedade.
Essa avaliação não teria condições de entender os processos de cada ação
de extensão, o crescimento de cada um dos atores, nem os resultados de
cada ação. Portanto, é uma dimensão de interesse limitado, muito focada
na política.
As dimensões acadêmicas devem ser definidas por cada IPES e podem
ser paulatinamente implantadas no processo avaliativo. A indissociabilidade do ensino-pesquisa-extensão é um exemplo da complexidade e da
dificuldade de implantar-se esse processo avaliativo sem uma preparação
prévia da instituição para isso. É uma dimensão essencialmente processual – deve ocorrer na ação –, mas que deve ser incentivada por processos gerenciais – os editais de bolsa e de apoio à extensão universitária
podem (e devem) induzir à formulação de propostas de ações baseadas
na indissociabilidade. Também deve estar devidamente regulamentada
na instituição, o que gera uma outra dimensão de avaliação, a dimensão
regimental.
Outra dimensão acadêmica por excelência é a creditação das ações de
extensão universitária na formação dos discentes, que era uma luta
histórica do FORPROEX. A creditação passou a ser uma possibilidade
concreta a partir da discussão do Plano Nacional de Educação. Assim,
também necessita de uma dimensão política, que permita avaliar como a
IPES incentiva essa creditação; regimental, que possibilite dar segurança
aos discentes, aos docentes e à instituição dos processos corretos de
104
creditação; e acadêmica, que possa demonstrar a validade dessa creditação em termos de construção (ou reconstrução, na visão de Demo) de
um conhecimento necessário e desejável para os discentes.
Então, uma mesma variável pode ser avaliada em diferentes dimensões
e para isso necessitará de diferentes indicadores e de diferentes instrumentos.
b) Definindo indicadores
Os indicadores são taxas, relações, condições ou números que mostram
as alterações de estado das variáveis analisadas, que são selecionadas de
acordo com as dimensões. Os indicadores devem ser precisos, fáceis
(? Sempre que possível!) de coletar e passíveis de aferição. Podem ser
utilizados de forma isolada ou conjunta, por meio de cruzamentos, para
definir essas alterações.
No diagnóstico realizado pela CPAE sobre a extensão universitária brasileira, na dimensão institucionalização da extensão, por exemplo, o
indicador utilizado foi a existência de resoluções, portarias ou decisões
dos conselhos superiores ou da reitoria que estabelecessem a extensão
como dimensão acadêmica. Para aferir esta existência, foi solicitado que
informassem os números destas regulamentações e mesmo que fossem
enviadas cópias destas para a CPAE. Para avaliar a produção acadêmica,
foi solicitado que informassem o número de artigos, capítulos de livros,
livros, relatórios, vídeos, etc., que fossem vinculados à extensão no ano
de 2003. A infraestrutura disponível para extensão foi determinada a
partir do número de salas, veículos, telefones (na época, era importante,
mas não tem sentido atualmente) e computadores (idem) colocados à disposição das ações de extensão.
Para Coehn (1999), os indicadores não surgem necessariamente da programação realizada, ainda que seja preferível que na formulação do projeto tenham sido consideradas tanto metas como os indicadores, de forma
que os indicadores sejam adequados para medir o alcance das metas.
105
Essa colocação é válida em uma visão de avaliação que não esteja focada
no cumprimento estrito da realização de uma proposta de ação de extensão, mas sim o comportamento da realidade como consequência do
projeto, de que modo e em que medida foram produzidas alterações/
transformações nos grupos afetados por uma ação de extensão, principalmente os projetos e os programas de extensão.
Assim é possível determinar quais os indicadores são válidos para a avaliação. Para cada meta estabelecida pelo projeto pode-se fixar indicadores que permitem medir o alcance da mesma, agora fixada em termos
de quantidades. A fase seguinte consiste em determinar as escalas que
outorgarão significado aos indicadores, como uma faixa de variação da
variável entre o máximo e o mínimo.
Um exemplo seria a arrecadação de alimentos por uma ação de extensão
que será repetida em uma comunidade, sendo que em anos anteriores foram realizadas entre 5 e 8 atividades e arrecadados 200 kg de alimentos,
na maior parte de baixo custo e de baixo valor nutricional.
Meta 1: obter doações de alimentos para o refeitório
Indicador: quantidade de atividades realizadas para conseguir
doações de alimentos
Alto: valor 4, 12 ou mais atividades
Superior à expectativa média: valor 3, de 9 a 11 atividades
Expectativa média: valor 2, de 5 a 8 atividades
Inferior à expectativa média: valor 1, de 1 a 4 atividades
Não houve atividade: valor 0, 0 atividades
Nesse exemplo, não pode ser aferida a qualidade da ação, nem o resultado obtido com as atividades em termos de aumento de doações de
alimentos para o refeitório, pois esse indicador não foi concebido com
essa intenção. Se estas forem as necessidades de avaliação da instituição,
outros indicadores devem ser construídos:
106
Meta 1: obter doações de alimentos para o refeitório
Indicador: quantidade alimentos doados por atividade
cultural realizada
Alto: valor de 400 a 600 kg de alimento por atividade
Superior à expectativa média: valor 250 a 400 kg de alimento
por atividade
Expectativa média: valor 150 a 250 kg de alimento por atividade
Inferior à expectativa média: menos de 150 kg de alimento
por atividade
Não houve arrecadação: valor 0, 0 kg de alimento por atividade
Meta 1: Obter doações de alimentos para o refeitório
Indicador: Porcentagem de alimentos proteicos arrecadados
sobre total de alimentos arrecadados
Alto: valor acima de 15% dos kg arrecadados
Superior à Expectativa Média: valor 11% a 15% dos kg
arrecadados
Expectativa Média: valor 5% a 10% dos kg arrecadados
Inferior à Expectativa Média: menos de 5% dos kg arrecadados
Não houve arrecadação: valor 0 – 0% dos kg arrecadados
Coehn ressalta que os indicadores pensados por essa metodologia são
adequados a avaliação ex post, podendo ser, de acordo com seus objetivos,
tanto de avaliação como de processos e impactos. Se está realizando uma
avaliação de processos, os indicadores se relacionam aos insumos que são
promovidos para realizar as atividades do projeto e aos produtos obtidos.
Numa avaliação de processos são selecionados indicadores de produtos e,
eventualmente, de efeitos – resultados – que derivam da utilização dos
107
produtos do projeto. Nesse caso, é necessário lembrar que alguns efeitos
podem aparecer depois do término de um projeto.
Uma avaliação de impacto analisa os resultados dos efeitos de um projeto. Os indicadores devem determinar o grau de alcance dos fins últimos,
constatando se foram produzidas mudanças na população/objetivo, em
que direção, em que medida, por quê. A avaliação de processo olha para
frente, para as correções ou adequações; a avaliação de impacto olha para
trás, se o projeto funcionou ou não, descobrindo as causas.
A primeira procura afetar as decisões cotidianas, operativas, e a última
se dirige para além do projeto, sendo utilizável para discutir sobre sua
eventual continuação, para formular outros projetos futuros, enfim, para
tomar decisões sobre as políticas. As decisões podem ser de ordem qualitativa, sobre a continuidade ou não do projeto; e de ordem quantitativa,
que modificam ou não a programação do projeto.
Para Draibe (1998), há uma certa confusão pelo uso pouco preciso da noção de resultado, o que de certa forma traz complicações para a definição
de indicadores. Para facilitar a compreensão, a autora sugere a distinção
entre resultados propriamente ditos, impactos e efeitos.
Para ela, o primeiro diz respeito a produtos do programa, previsto em
suas metas e derivados do seu modo particular de “produção”. Por exemplo: no caso da merenda escolar, relacionar a quantidade de refeições distribuídas, ou os valores calóricos e proteicos adicionados à dieta diária.
Já os impactos se referem a alterações e mudanças efetivas na realidade
sobre a qual o programa intervém e por ela são provocadas. Como exemplo a autora cita que tendo em tela um programa de vacinação, o impacto
esperado será a redução da incidência da poliomielite.
Os efeitos referem-se a outros impactos do programa, esperados ou não,
que afetam o meio social no qual se realizou. Temos como exemplo, no
caso da vacinação, o aumento do nível de informação, ou o grau de satisfação dos pais com a organização do evento. Uma mesma pesquisa de
avaliação pode avaliar resultados, impactos e efeitos. Cada tipo ou grupo
108
de resultados será melhor avaliado sempre que para tanto forem utilizados os indicadores adequados.
- Indicadores de resultados medem os graus, as quantidades e níveis de qualidade com que as metas foram cumpridas. Podem ser estimados através
do confronto de objetivos e metas de um lado e as realizações alcançadas de outro. A proporção de metas alcançadas e de cumprimento do
planejado ou os índices de cobertura da população-alvo são típicos indicadores de resultados. O programa realizou os objetivos pretendidos?
Atingiu os grupos-alvo? Cumpriu, e em que níveis de quantidade e de
qualidade, as metas propostas?
- Indicadores de impacto tratam de medir as mudanças pretendidas ou se
quiser de resultados mais duradouros, ou seja os efeitos do programa
sobre a população-alvo. Por exemplo: em programa de nutrição escolar
verificar as variações dos níveis de nutrição do alunado. As questões
clássicas são: o programa efetivamente produziu os resultados que pretendia alcançar? Afetou em que medida a realidade que queria transformar? Uma das possibilidade para a avaliação do impacto é a definição
de grupos de referência que possam comparar programas, ou seja,
possibilitar o com o quê comparar. Uma possibilidade é comparar os
sujeitos com eles mesmos, do tipo antes e depois. Para isso é necessário
elaborar um diagnóstico da situação anterior ao início do programa,
com a qual os impactos serão comparados. Uma outra alternativa é
estimar impacto entre participantes e não participantes. O segundo
grupo operará como grupo de controle em que os integrantes sejam
aleatoriamente selecionados, ambos os grupos apresentando similaridade nos seus atributos.
- Indicadores de efeitos referem-se a determinadas alterações, esperadas ou
não as especificamente pretendidas pelo programa, e que, mais que o
grupo-alvo, afetam as instituições, os agentes que a implementaram ou
o meio social em que o mesmo se realiza. Tendem a abranger os efeitos
mais duradouros sobre os agentes implementadores e a comunidade
local – efeitos sociais e efeitos institucionais relacionados às instituições
109
governamentais e não governamentais associadas a sua implementação.
As perguntas básicas são: o programa produziu alguma aprendizagem
institucional? Estimulou a continuidade da experiência? As metodologias podem ser aproveitadas? Foram constatadas melhoras nas capacidades profissionais dos agentes de implementação?
Outros indicadores agregados à avaliação de programas são os indicadores de eficiência, eficácia e efetividade.
A eficiência diz respeito às qualidades de um programa sob parâmetros
técnicos de custos e de tempo. Menor tempo, maior produção, menores
custos são as preocupações particulares da eficiência. As atividades se
organizam, tecnicamente, da maneira apropriada? Esta condição opera
com menores custos e em menor tempo possível?
No plano mais geral, eficácia de um programa diz respeito à relação entre
características e qualidade dos processos e sistemas de implementação
de um lado e os resultados a que chega no outro. Será mais eficaz aquele
programa que atingir seus resultados em menor tempo, menor custo e
com mais alta qualidade. Quais são os fatores de ordem material e institucional na implementação que operam condicionamentos positivos e
negativos do desempenho do programa?
Já os conceitos de efetividade referem-se à relação entre objetivos e metas, de um lado, e impactos e efeitos, de outro. A efetividade relaciona-se
com as quantidades e/ou os níveis de qualidade com que a ação atinge os
impactos esperados e promove os efeitos pretendidos, previsíveis
ou não, tantos os sociais como institucionais.
No caso da arrecadação de alimentos para o refeitório, o maior número
de atividades realizadas com o menor custo traria uma maior eficiência
para a ação, mas não significaria nada se a arrecadação fosse nula ou
inferior à expectativa média. Uma maior arrecadação de alimentos por
atividade cultural destacaria as atividades mais eficazes, mas isso poderia
ser contestado se a maior parte dos alimentos não tivessem a qualidade
esperada, o que não permitiria alterar o teor proteico das refeições. Se
110
a intenção final da arrecadação fosse mudar os hábitos de alimentação a
partir de uma oferta maior de proteínas no refeitório, tal ação não teria
o efeito esperado.
c) Concebendo os instrumentos
Instrumentos de avaliação são os meios pelos quais serão obtidas as informações necessárias para a realização da análise. Estes instrumentos
devem ser testados para verificar se é possível para o avaliador ou para
o avaliado respondê-los de forma adequada, garantindo que as respostas
obtidas signifiquem exatamente o que expressam. Para conceber um
instrumento, portanto, é necessário imaginar as situações em que o
mesmo será respondido, as possíveis fontes de informações, as diferenças
conceituais e regionais, entre outras. Também é necessário definir previamente se o indicador será qualitativo ou quantitativo e, neste caso, se
será utilizado uma forma de torná-lo operacional para cálculos.
i) Banco de dados – um banco de dados associado a um sistema de
registro das ações de extensão é um instrumento potencialmente
poderoso para iniciar a avaliação de processo. O banco de dados
ideal é concebido para possibilitar a avaliação, e não o contrário: a
avaliação ser restrita às informações existentes.
ii) Check-list – é um instrumento rápido para os processos de acompanhamento e monitoramento, podendo ser ampliado para a avaliação
de eficiência. Consiste em uma lista de tarefas que vai sendo marcada se estas foram atendidas ou não. Se incorporar uma coluna de medidas tomadas para a correção, terá um caráter de monitoramento;
se incluir as quantidades e as datas de realização das tarefas, poderá
ser utilizada para a avaliação de eficiência. Se incluir uma medida de
qualidade, poderá gerar indicadores de eficácia, mas, pelo seu caráter resumido, não pode ser a única fonte para este nível de avaliação.
iii) Enquetes – são perguntas de resposta simples, coletadas de forma
rápida e que expressam uma única posição, normalmente sim ou
não. São instrumentos válidos para pesquisas rápidas com grande
111
público, onde não interessa muito os motivos da posição. Podem
ser utilizadas para acompanhamento e monitoramento (O senhor já
foi atendido? O material já foi recebido?), para avaliação de eficiência (O
data show estava na sala no momento solicitado?) e de eficácia (Os bolsistas
souberam atender aos participantes?).
iv) Pesquisas de opinião e de satisfação – são questionários preconcebidos, com respostas padronizadas, em que o entrevistado responde
sem muita margem de discussão. Podem ser utilizadas nas avaliações
de eficiência, eficácia e efetividade. Para a avaliação de impacto, devem ser aplicadas com critério, pois poderão ser contaminadas pelo
tempo decorrido, pela falta de memória em relação ao momento da
ação, pelo não entendimento correto da responsabilidade de cada
um dos atores do processo, etc.
v) Entrevistas abertas – são conversas registradas com alguém que se
julgue de interesse para a avaliação da ação. Pode durar mais de uma
hora e não há um formato preconcebido: as perguntas vão sendo
feitas de acordo com a resposta anterior ou buscando tentativamente
obter a percepção mais profunda do entrevistado sobre a ação, seu
processo e seus resultados. Não são muito adequadas para a avaliação
de eficiência (não têm um roteiro definido, podem levantar informações para uma ação, mas não para a outra, impedindo a comparação entre os esforços realizados e os seus resultados), mas podem ser
utilizadas na avaliação de eficácia, efetividade e impacto.
vi) Entrevistas estruturadas – seguem roteiros predefinidos, embora
possibilitem margem de discussão. Resultarão em valores qualitativos, de forma predominante. Se forem agendadas previamente, podem levantar informações quantitativas, como é o caso de entrevista
a entidades públicas, não governamentais e privadas que tenham
participado de uma ação de extensão – quantas pessoas de sua instituição participaram da ação? Qual foi o valor investido na tarefa x? Quanto
tempo foi aplicado na tarefa Y? Assim, podem ser utilizadas em todos
os níveis de avaliação, embora seu custo não seja compatível para a
112
avaliação massiva de eficiência e eficácia, que podem ser medidas
com instrumentos mais simples.
vii) Questionários – roteiros de perguntas definido, podem ser respondidos pelo entrevistado sem a presença do pesquisador. Portanto,
têm um custo menor que as entrevistas. Devem ser avaliados quanto
à clareza das perguntas, para evitar respostas não utilizáveis na avaliação. Recomenda-se, fortemente, que sejam submetidos a um teste
de campo antes da sua multiplicação.
viii) Triangulação de informações – a triangulação de informações é
um instrumento para conferir a consistência dos valores levantados
pelos instrumentos, para verificar a existência de inconsistências. É
muito útil para refinar as informações qualitativas ou para entender
resultados quantitativos aparentemente inconsistentes. O método
1
RAPPAM – Avaliação Rápida – utiliza este instrumento como base
para uma análise posterior dos resultados obtidos logo após a realização da ação. É uma metodologia facilmente aplicável nas ações de
extensão, podendo avaliar a eficácia e a efetividade de modo rápido
e eficiente. Tem como atrativo adicional a fase de negociação das
perguntas e respostas, o que socializa o próprio processo avaliativo.
Vale a pena ler o manual desse método.
Como exemplo de aplicação de instrumentos, no caso de avaliar o grau
de alteração da satisfação de uma comunidade em relação ao Programa de Saúde da Família após a realização de uma ação de extensão de
qualificação dos atendentes, pode-se utilizar uma enquete pela qual o
respondente avalia diretamente se está satisfeito ou não, o que seria uma
informação qualitativa.
Por outro lado, poderia ser perguntado, em uma enquete, entrevista ou
questionário, com uma escala de 0 a 10, qual seria seu grau de satisfação antes e depois da ação em diversos momentos, o que resultaria em
números que poderiam gerar taxas de crescimento ou decaimento dessa
1 Disponível em: <http://wwf.panda.org/what_we_do/how_ we_work/conservation/forests/tools/rappam/>.
113
satisfação. Outro exemplo seria o conhecimento, por parte da população, da existência de uma determinada ação. Uma enquete poderia ser
utilizada para saber se o respondente conhecia ou não a ação. Uma entrevista aberta poderia avaliar com maior profundidade este conhecimento,
as fontes de informação normalmente utilizadas, os meios preferenciais
de comunicação, a confiabilidade destes meios, entre outros. Um questionário poderia obter as mesmas respostas, mas a sua elaboração exigiria
o conhecimento prévio dos meios de comunicação potencialmente utilizados, definir parâmetros de confiabilidade, etc. Ou seja, o questionário
exigiria maior investimento para ser elaborado, mas poderia ser multiplicado com um baixo custo; a entrevista aberta exige mais técnica para
ser aplicada, mas um baixo custo para ser concebida. O banco de dados
pode ser utilizado para entender esforços realizados para a execução das
ações de extensão ao longo de todo o ano, como número de alunos, horas de docentes e técnicos, população beneficiada diretamente, exames
realizados, espetáculos e sessões de cinema, etc.
d) Tabulação e análise dos resultados
Os resultados obtidos com a aplicação dos instrumentos necessitam ser
tabulados e analisados. Muitas avaliações não conseguem superar esta
etapa, deixando os dados coletados guardados por não saber o que fazer
com eles. Inicialmente, a tabulação permitirá identificar o comportamento dos dados, as situações que destoam do conjunto de informações,
os valores nulos ou inválidos. Resolvidas as inconsistências, serão aplicadas ferramentas matemáticas, estatísticas e probabilísticas, que devem
ser selecionadas caso a caso. Planilhas de cálculo, como Excel, trazem
muitas destas ferramentas, que possibilitam calcular taxas, tendências,
probabilidade, equações de correlação, entre outras.
e) Possibilidades estatísticas básicas
A utilização de distribuições estatísticas é muito comum em processos
avaliativos. Entre elas, destaca-se a distribuição Normal, que utiliza
os parâmetros média e desvio padrão para validar a distribuição das
114
informações referentes a uma população amostral. Nem sempre a distribuição Normal é utilizável, seja porque a população não obedece aos
critérios necessários, seja porque a dimensão que está sendo avaliada não
é compatível com essa distribuição. Em alguns casos, distribuições como
Bernoulli, Log-Normal e Gumbel poderão ser úteis.
4.3. Criando um quadro de indicadores para a extensão
Como já colocado no início do capítulo, o processo de construção de um
sistema avaliativo deve ser uma caminhada específica para cada IPES.
Para fins estritamente ilustrativo, apresenta-se uma proposta de indicadores possíveis de serem adotados, que necessariamente devem ser discutidos, alterados de acordo com a realidade de cada IPES e validados nas
instâncias competentes e, mais do que isso, comprovados na aplicação
concreta do cotidiano da instituição.
QUADRO 1
Indicadores aplicáveis na avaliação de ações de extensão
(Continua)
Indicadores de eficácia
O que medem
Análise dos resultados em
função dos objetivos traçados
Resultados e produtos
Metas
Proporção de cumprimento de metas,
regularidade da prestação de serviço
Público-alvo: foco, cobertura
Indicadores de eficiência/custos
O que medem
Recursos/custos
Relação custo/benefício
Custos/efetividade
115
(Continua)
Indicadores de eficiência dos
processos
O que medem
Processos da implementação
1. Sistema gerencial
Capacidade de implementar decisões / Grau
de centralização
2. Processo de divulgação e
informação
Diversidade de canais, suficiência e
qualidade das mensagens / Porcentagem de
público atingido, agilidade de fluxo
3. Processos de seleção de
agentes implementadores e
beneficiários
Publicização do projeto, adequação
do grupo selecionado aos objetivos do
programa
4. Processo de formação de
agentes implementadores e
beneficiários
Competência dos educadores, duração
e qualidade do curso (se houver),
conteúdo, avaliações, a formação segundo
os estudantes, o processo segundo os
beneficiários
5. Sistema operacional –
financiamento, gasto, provisão
dos recursos materiais
Suficiência dos recursos, prazos e fluxos,
qualidade da infraestrutura, material de
apoio
6. Processos de monitoramento
e avaliação interna
Regularidade, abrangência e agilidade na
identificação dos desvios e incorreções,
agilidade para recomendar incorreções.
Grau de comprometimento e participação
dos atores no processo. Eficiência em propor
e recomendar melhorias
116
(Conclusão)
Indicadores de
efetividade
O que medem
Impactos – variações
mudanças na realidade
Taxas de crescimento de um fenômeno, intensidade
da mudança
Efeitos – social – opinião
e satisfação dos atores
Avaliação dos atores/graus de adesão, satisfação
Efeitos – institucional –
capacidades institucionais,
sustentabilidade e
reprodutibilidade
Níveis de aprendizagem institucional, inovações,
autonomia, transferência de metodologia,
institucionalização dos processos
A adoção desses indicadores é compatível com uma proposta de avaliação
apresentada no quadro a seguir:
117
QUADRO 2
Estruturação de uma proposta de avaliação da extensão universitária
(Continua)
Dimensões
Indicadores
Questões
Fontes
Análise
das metas
estabelecidas
pela política
de extensão na
IPES
Metas
realizadas x
metas
previstas
- As atividades de extensão
são coerentes com a natureza
e as responsabilidades sociais
da IPES?
- Atua em que segmentos ou
sob que demandas?
- Elas são as mais profundas e
significativas da comunidade a
que se dirige? Elas têm relação
com a qualidade de vida da
comunidade/da sociedade? É
pioneira em sua ação?
- Funciona como laboratório
para aprendizagem do aluno?
- Mantém-se como espaço
do exercício da crítica da
produção de conhecimento?
Cadastro,
Relatório
final
Processos de
implementação
De
eficiência
Qual a capacidade do projeto
ser implementado de acordo
com as suas metas?
Cadastro,
mostra de
extensão
e relatório
da ação
Sistema
gerencial
118
(Conclusão)
Dimensões Indicadores
Questões
Processo de divulgação/
informação das atividades
Como divulga sua atividade e
resultados? Por meio de que
forma? Evento, consultorias,
publicações? Criação de
instrumentos de acesso,
curso, produção de filmes,
banco de dados, sistemas
de informação? Produziu
conhecimento sobre os
processos de intervenção?
Seleção de beneficiários
Quem são seus beneficiários?
Fontes
Processo de formação dos Como os beneficiários
beneficiários/participação participam do projeto?
dos mesmos
Processos de avaliação
internos
Quais os mecanismos de
avaliação internos?
Impactos
Variações e mudanças na
realidade da intervenção
Quais foram as mudanças
geradas na realidade?
Efeitos
Efeitos sociais
Qual o grau de satisfação dos Relatório
beneficiários?
ou pesquisa
posterior
Efeitos institucionais
Quais as inovações
institucionais? Gerou uma
pesquisa, grupo de estudo,
monografia, nova disciplina?
A metodologia pode ser
transferida?
Pesquisa
posterior
Relatório
ou pesquisa
posterior
119
4.4. Conclusões
A base da construção de indicadores reside em uma visão clara de extensão universitária e mesmo de Universidade. Sem essas definições,
não será possível eleger indicadores que permitam a avaliação correta do
que foi feito, das metas alcançadas, das mudanças conquistadas e da sua
importância na alteração da realidade na qual se desejava intervir.
O início de um diálogo sobre a organização da extensão universitária
concebida sobre indicadores claros possibilita uma profissionalização
da gestão, entendida aqui não como uma estrutura rígida de controle e
fiscalização, mas sim em um motor capaz de ampliar os ganhos possíveis
a partir de uma extensão consequente, cabível, politicamente inserida e
socialmente justificável. Um elenco de indicadores consistentes impede
a permanência consciente de uma inércia nociva ao desenvolvimento da
Universidade, à repetição de ações que perderam seu sentido (no mundo
atual e ao arranjo institucional vigente) e à falta da visibilidade e do protagonismo das instituições de educação superior.
Indicadores envelhecem e por isso devem ser revistos de acordo com o
desenvolvimento da instituição e dos outros setores da sociedade. Indicadores perdem significância e por isso devem ser atualizados de acordo
com a evolução dos conceitos, das políticas públicas ou da evolução das
visões de mundo, ou seja, indicadores devem ser coerentes com os múltiplos entornos entre os quais a extensão universitária se move.
Assim, embora os conceitos básicos apresentados nesse capítulo devam
permanecer, mais uma vez é necessário enfatizar que o processo de construção dos indicadores sempre será mais importante do que os resultados
obtidos. Iniciá-lo não resulta em nenhuma garantia de sucesso, mas não
iniciá-lo significa manter uma incerteza sobre tudo, sobre a gestão, sobre
os processos, sobre os resultados e sobre a própria inserção e validade da
existência da Universidade.
capítulo
5
sistema de monitoramento e avaliação
122
capítulo 5
sistema de monitoramento e avaliação
Edite da Penha Cunha
Marilia Barcellos Guimarães
5.1. Introdução
O avanço da política de extensão universitária brasileira em processo de
institucionalização e valorização não pode prescindir do monitoramento
de sua implementação, bem como da avaliação dos seus resultados.
Compreende-se que a implementação da avaliação da extensão universitária, para além de possibilitar o reconhecimento de avanços relativos
à capacidade institucional técnico-acadêmica, não está “destituída de
vínculos estratégicos com a organização do sistema de ensino”, como nos
alerta Gomes (2004). Nessa perspectiva, a implantação de um sistema de
monitoramento e avaliação da extensão requer novos e contínuos redimensionamentos, que considerem a participação de inúmeros atores de
1
dentro e de fora da Universidade, a otimização de resultados cívicos, o
contexto, a cultura e as circunstâncias (BOURGON, 2010).
A consolidação da extensão universitária, enquanto compromisso deliberado de estabelecer vínculos estreitos com a sociedade, institucionalmente qualificados, politicamente definidos e direcionados para a
democratização do saber, implica promover a visibilidade ao universo
das atividades realizadas e traz para o centro de nossas discussões a
necessária organização da gestão e do monitoramento e avaliação da
extensão universitária.
1 Resultados cívicos incluem, mas não se limitam a uma cidadania ativa, comunidades empoderadas e um espírito cívico
que permeia a sociedade e incentiva a ação coletiva para o bem comum. É possível melhorar os resultados cívicos da
maioria dos programas e atividades de governo tomando-se medidas para remover as barreiras que impedem a cidadania
ativa e incentivando a construção de capacidades comunitárias e coletivas.
123
É nesse contexto que se apresentam alguns desafios que persistem para
o alcance de uma extensão universitária formativa. Entre os desafios
enfrentados destacam-se o alinhamento teórico-conceitual dos atores
envolvidos, o registro e a gestão das informações sobre as ações de extensão, a estruturação de instrumentos que inovem a gestão da extensão.
Nessa perspectiva, este capítulo tem como objetivo discutir a importância do sistema de monitoramento e avaliação no âmbito da gestão
da extensão universitária. Para isso, faz-se uma revisão de definições e
delimitações conceituais em relação à extensão universitária brasileira,
ao sistema de monitoramento e avaliação, ao sistema de informação e à
gestão de extensão universitária. A seguir, são delineados alguns procedimentos para a estruturação de um sistema de informação de extensão,
situando a experiência do Sistema de Informação da Universidade Federal de Minas Gerais – SIEX/UFMG. Na sequência, são apresentadas
questões relativas à implementação de sistema de avaliação da extensão,
tendo em destaque a experiência de avaliação da produtividade em
extensão na UFMG para a alocação de vagas docentes nos seus departamentos. Por fim, são destacados os desafios relacionados à estruturação
de sistemas de informação e de monitoramento e avaliação da extensão
universitária, seguidos de algumas considerações finais.
5.2. Definições e delimitações conceituais
5.2.1. Gestão da extensão universitária
A gestão da extensão universitária, aqui apresentada, é compreendida
como um processo interativo que orienta a dinâmica de funcionamento
da extensão na instituição, articulada à Política Nacional de Extensão
Universitária, definida pelo Fórum de Pró-Reitores de Extensão das
Instituições Públicas de Educação Superior Brasileiras – FORPROEX.
Mobiliza recursos, experiências, habilidades, métodos e responsáveis,
e busca eficiência por meio da otimização dos recursos e meios, preservando a qualidade dos resultados de suas atividades; a eficácia em relação
124
ao cumprimento de seus objetivos; bem como a efetividade, ao focar a
relevância de suas ações para a sociedade. Nessa perspectiva, busca-se
uma gestão fundamentada em um conjunto de princípios subjacentes
à extensão enquanto uma dimensão acadêmica da universidade pública, articulada ao ensino e à pesquisa, em um diálogo permanente que
possibilite a interação com os diversos atores institucionais, políticos e
da sociedade envolvidos na formulação e implementação da política de
extensão universitária.
Assim, a estruturação da gestão da extensão envolve o planejamento, a
organização de recursos, a coordenação, o controle das atividades, bem
como o sistema de valores que a orienta. O planejamento tem como
horizonte a definição da missão, dos objetivos, das diretrizes e prioridades, bem como das atividades e estratégias para sua implementação,
das metas, dos meios e dos responsáveis pelas atividades. A gestão busca,
também, organizar pessoas e recursos, definir atribuições, responsabilidades, normas e formas de trabalho, assim como coordenar, motivando
pessoas e equipes a exercerem as atividades necessárias para o alcance
dos objetivos, definindo fluxos de trabalho, promovendo negociações e
pactuações de estratégias de ação. Não menos importante é o controle
de suas ações por meio do monitoramento e avaliação, que possibilita
o acompanhamento e a comparação do que foi planejado com o que foi
executado, permitindo rever rumos, consolidar ganhos, tomar decisões
estratégicas, gerenciais e operacionais, bem como replanejar suas ações.
A avaliação da extensão universitária encontra-se em construção, sinalizando para a necessidade de se avançar na definição e implementação
de indicadores e de instrumentos, bem como na discussão sobre a sua
contribuição no aprimoramento da gestão da extensão e de suas ações.
A avaliação da extensão, como uma das dimensões da avaliação institucional, é fundamental e pode ser viabilizada a partir da estruturação de
sistemas de registro que identifiquem, caracterizem e sistematizem as
informações sobre os programas, projetos, cursos, eventos e prestação
de serviços de extensão desenvolvidos na universidade. Além disso, essa
125
avaliação constitui-se como um elemento imprescindível para definir
metas e prioridades e delimitar a política de extensão.
A organização da extensão universitária tem colocado na agenda das universidades a necessidade do desenvolvimento de novos instrumentos que
visem ao aumento da capacidade de planejamento e de gestão da política
de extensão. O desenvolvimento de sistemas de informação e de monitoramento e avaliação, exigência central desse processo de consolidação da
extensão como dimensão formativa da universidade, exige um trabalho
conjunto de equipes de profissionais envolvidos em sua gestão, técnicos
programadores, representantes de órgãos colegiados, docentes, alunos e
colaboradores, o que será apresentado e discutido nas seções seguintes.
5.2.2. Sistema de monitoramento e avaliação
Com base na concepção de monitoramento e avaliação da Secretaria de
Avaliação e Gestão da Informação do Ministério do Desenvolvimento
Social, apresentada por Vaitsman et al. (2006), a qual indica dois subsistemas relacionados e independentes entre si e organizados em distintos
procedimentos, metodologias e instrumentos, observa-se que é possível
distinguir o subsistema de monitoramento e o subsistema de avaliação.
O subsistema de monitoramento consiste no acompanhamento contínuo
do desenvolvimento dos programas/ações em relação às metas, devendo
ser capaz de prover informações que possibilitem a adoção de medidas
corretivas para melhorar sua operacionalização; e o subsistema de avaliação tem por objeto a análise dos produtos e dos resultados referentes
aos programas e às ações desenvolvidas em relação aos objetivos e metas
estabelecidos.
Nessa perspectiva, entende-se que o sistema de monitoramento e avaliação pode ser composto por um conjunto de sistemas organizados a
partir de indicadores e de instrumentos para o acompanhamento e a
avaliação da execução da política de extensão e de suas ações, os quais
devem dialogar entre si.
126
Essa concepção de sistemas de monitoramento e avaliação, adotada para
a extensão universitária, reveste-se de fundamental importância para
a sua organização ao possibilitar o reconhecimento de instrumentos e
processos de registros e acompanhamento já existentes ou por construir,
que contribuem para o monitoramento do planejamento, a apreensão e
a análise da realidade da extensão universitária, bem como para o ajuste
da gestão e das ações de extensão aos princípios, diretrizes, objetivos e
metas da Política Nacional de Extensão Universitária.
Entende-se que a estruturação de sistemas de monitoramento e avaliação
requer clareza de conceitos e de objetivos em relação às dimensões e
variáveis que se deseja monitorar e avaliar. A gestão da extensão, como
uma dessas dimensões, compreende: a institucionalização; a valorização
acadêmica; a estrutura – órgãos; os sistemas de informação; os recursos
materiais, humanos e financeiros; a normatização; o planejamento – prioridades, metas, processos e procedimentos; entre outros. Na dimensão
das ações – programas, projetos, cursos, eventos e prestação de serviços
– deve-se buscar avaliar as variáveis indissociabilidade entre extensão,
ensino e pesquisa; interdisciplinaridade; interação dialógica; impacto na
formação do estudante, bem como impacto e transformação social.
5.2.3. Sistema de informação e a gestão da extensão universitária
A organização da extensão não pode prescindir de sistema de informação
em razão da diversidade e multiplicidade das ações desenvolvidas e das
articulações e interações internas e com outros setores da sociedade.
Internamente, são necessárias interlocuções no âmbito das unidades acadêmicas, dos departamentos e órgãos de direção da universidade, entre
docentes, técnicos administrativos e discentes. Externamente, exige-se
a articulação com comunidades, organizações da sociedade civil, órgãos
governamentais de diferentes instâncias, empresas, agências de financiamento, entre outros.
Segundo Laudon (2004, p. 7), um sistema de informação constitui-se
como um
127
(...) conjunto de componentes inter-relacionados que coleta (ou
recupera), processa, armazena e distribui informações destinadas a apoiar a tomada de decisões, a coordenação e o controle de
uma organização.
Pode ser automatizado ou manual.
Nos argumentos de O’Brien (2004), “um sistema de informação possui
três componentes ou funções básicas de interação que transformam dados em informação útil”. A entrada, que consiste no registro de dados
pelo usuário produtor de informação, o processamento, que envolve
transformações que convertem insumo/dados (entrada) em produto/
informação (processo de organização, análise e manipulação dos dados
para se tornarem informação), e a saída, que se refere à transferência de
elementos produzidos por um processo de transformação até o seu destino final, na forma de relatórios impressos, apresentações gráficas, dados
a serem enviados para outros sistemas de informação, entre outros. A
construção de relatórios, gráficos e outros mecanismos de sistematização da informação são fundamentais para a análise da realidade e das
tendências e para a indução de políticas na instituição. Nesse sentido, um
sistema de informação deve atender às diferentes funções e acompanhar
a dinâmica da extensão na universidade como um todo. As informações
geradas por meio de um sistema de informação possibilitam subsidiar
a gestão da extensão e a estruturação de sistema de monitoramento e
avaliação.
Um sistema de informação da extensão constitui-se como instrumento
de cadastro e gerenciamento de dados que pode ser acessado on-line ou
não e permite o registro, o armazenamento e a disponibilização dos
dados dos programas, projetos, cursos, eventos e prestação de serviços.
Deve ser concebido para diferentes usos e grupos de usuários, como docentes e técnico-administrativos, que registram suas ações de extensão;
visitantes, que consultam os registros; e as instâncias gestoras da extensão na universidade, que auditam e aprovam as ações de extensão registradas. É necessário que possa gerar relatórios que viabilizem a avaliação
128
institucional da universidade em relação à extensão, bem como subsidiem
o monitoramento das ações de extensão pelo(s) órgão(s) competente(s)
na IPES, como a sua evolução no tempo e/ou a sua abrangência, a participação e orientação dos discentes participantes, entre outros, definidos
por cada contexto universitário.
Um sistema de informação auxilia na gestão da extensão ao permitir o
registro das ações e a disponibilização de dados, a identificação e o acompanhamento das ações, a sistematização dos dados para construção de
indicadores, a elaboração de relatórios e a socialização das informações
da extensão. Seus dados constituem, portanto, uma fonte para a estruturação do sistema de monitoramento e avaliação.
Com o objetivo de delimitar e esclarecer alguns aspectos relacionados ao
processo de estruturação de sistemas de informação que irão subsidiar o
monitoramento e a avaliação, descreve-se, nas seções seguintes, alguns
de seus requisitos e procedimentos como um esforço para assegurar a
consistência dos dados registrados bem como para apreender a complexidade que esse processo envolve.
5.3. Estruturação de um sistema de informação de extensão
A institucionalização da extensão universitária, entendida como a adesão
dos atores envolvidos às normas, à legislação e a valores partilhados,
abrange, entre outros, o estabelecimento de instrumentos informacionais que possibilitam o registro das ações de extensão, reduz incertezas e
permite a racionalização dos processos e sua institucionalização (MARTELETO, 1987). A estruturação de sistemas de informação permite à
gestão ir ao encontro da identificação e da qualificação de suas ações, por
meio da utilização de indicadores e procedimentos, da racionalização e
da institucionalização de processos, de forma a valorizar as ações que se
organizam a partir das diretrizes estabelecidas pela política de extensão
e a identificar oportunidades de melhoria para as demais.
129
A estruturação de um sistema de informação pode ocorrer por diversas
formas e, no intuito de resgatar algumas noções que podem contribuir
com esse desafio, passamos a delinear alguns procedimentos considerados básicos para a sua organização, a partir de um processo que envolve
estudos preliminares para a definição da fonte de dados que será utilizada, a definição de especificações de necessidades que devem ser atendidas
pelo sistema, o acompanhamento do seu desenvolvimento e a capacitação
de seus usuários.
5.3.1. Estudos preliminares
O aprofundamento dos conhecimentos teórico e prático em relação à
extensão universitária sobre o qual o sistema será construído envolve a
compreensão do marco conceitual da extensão universitária. Este abrange, ainda, o conhecimento do cotidiano das unidades acadêmicas, das
formas de proposições de ações de extensão específicas, suas características, dos fluxos de informações e processos de aprovação necessários,
além do conhecimento da política de extensão dessas unidades acadêmicas. Outro tipo de informação necessária refere-se aos regulamentos e
normas da extensão da instituição. Reveste-se também de importância
a prospecção de tipos possíveis de relatórios para a gestão, envolvendo
a identificação daqueles solicitados pelos diferentes órgãos superiores,
relatórios necessários e possíveis que poderão ser extraídos de sistemas
de informação.
Faz-se necessário, ainda, o conhecimento da estrutura da universidade
no que se refere à extensão universitária, bem como à organização, aos
fluxos e aos processos de aprovação das ações de extensão. Isso implica
a análise de documentos referentes à sua estrutura, às normas que regulamentam a extensão universitária, o Plano de Desenvolvimento Institucional, aos formulários de acompanhamento das ações de extensão, questionários, relatórios, etc. Especial atenção deve ser dada aos documentos
produzidos em gestões anteriores e materiais históricos que permitam o
conhecimento da trajetória da extensão na Universidade.
130
Ressalta-se a importância da participação do corpo técnico-administrativo, dos docentes, dos discentes, dos colegiados de extensão e das demais
instâncias de gestão da extensão no desenvolvimento de uma proposta de
estruturação de sistema de informação.
No caso daqueles que já contam com um sistema queiram reestruturá-lo, sugere-se uma pesquisa exploratória no sentido de verificar quais as
necessidades e as possibilidades que a reformulação do sistema de informação poderá criar para o avanço da gestão da extensão. A análise de
seus formulários, conceitos, funcionalidade, funções e abrangência – na
perspectiva de diagnosticar os seus limites diante dos novos tempos e necessidades da extensão universitária – possibilita o delineamento de novos relatórios e a antecipação de possibilidades que auxiliará o processo
de gestão da extensão, além de permitir uma interação qualificada com
os desenvolvedores do sistema de informação pelo acúmulo de conhecimentos para uma especificação adequada.
5.3.2. Especificação de necessidades a serem atendidas pelo sistema
A realização de reuniões, encontros, oficinas, entre outros momentos
que possibilitem alinhamento conceitual visando à formulação de questionários para coleta de dados, o detalhamento de cada ação prevista e de
cada informação proposta para ser atendida pelo sistema de informação é
fundamental para a definição do produto a ser construído. Esse trabalho
deve contemplar as especificidades de cada tipo de ação de extensão que
será registrada no sistema – programa, projeto, curso, evento, prestação
de serviço – bem como os relatórios de gestão por áreas temáticas, linhas de extensão, unidades, departamentos, georreferenciamento, entre
outros.
Destaca-se, nesse processo, o papel central da instância de gestão da
extensão, que deve disponibilizar todas as informações necessárias e
assegurar a participação dos funcionários e coordenações em todo o processo. Isso agiliza os trabalhos e facilita as definições necessárias para a
programação do sistema.
131
Cabe ressaltar a importância desse trabalho ser orientado pelas discussões realizadas nos momentos do levantamento de necessidades. Tais
discussões subsidiarão a definição da missão, dos limites, dos benefícios
e componentes do sistema de informação, expressos a seguir, a título de
ilustração.
A definição da missão do sistema é fundamental para orientar a especificação das necessidades que esse deve atender, assim como para ficar claro
quem terá acesso às suas funcionalidades, definir se o sistema é restrito
a coleta de dados de programas, projetos, cursos, serviços e eventos de
extensão e se terá um portal para divulgação dos dados nele produzidos.
Como antecipação dos benefícios do sistema, pode-se identificar: a facilidade na análise das informações coletadas; a identificação do desempenho em extensão das unidades acadêmicas; o preenchimento on-line, pelo
coordenador de ação de extensão, de informações periódicas das atividades desenvolvidas e de seus produtos; a gestão dos dados referentes à
infraestrutura, aos recursos humanos envolvidos e à aprovação das ações
pelos dirigentes; a emissão de relatórios de ranking em relação às ações; e
a consulta de informações pelo público.
Outro aspecto importante é a definição de permissões de usuário que
se refere, por exemplo, àquelas referentes ao administrador do sistema
que poderão ser: criar novo registro, adicionar ano de pesquisa e nova
estrutura de questionário, emitir relatórios de todas as ações; as permissões das instâncias de gestão da extensão nas unidades de ensino, caso
existam, que poderão possuir as permissões do sistema filtradas apenas
para a sua unidade; a permissão de consulta do público que possibilita
consulta externa das informações registradas.
Não menos importante é a definição de requisitos de adaptação do sistema
ao ambiente, como: se esse será conectado à internet e o tipo de navegador
em que irá funcionar (ex. Microsoft Internet Explorer e Mozilla Firefox),
se todas as telas devem permitir a impressão de seu conteúdo, etc.
132
5.3.3. O desenvolvimento de software e acompanhamento
Esse desenvolvimento ocorre em um processo de “iterações”, que se
constitui por meio de validação e de testes, realizados pelas equipes de
trabalho responsáveis pelo acompanhamento da implementação de item
por item do que foi formulado coletivamente, visando à correção de erros, à implementação de sugestões de alteração de melhorias.
5.3.4. Testes, correções finais e capacitação de usuários
Após a finalização do desenvolvimento de um software, fazem-se necessários os testes e correções finais, criando-se uma dinâmica para testar
seus limites, buscar por erros em sua construção e verificar se a versão
apresentada atende às necessidades da gestão da extensão na Universidade. Enquanto os testes e correções finais ocorrem, devem ser levantados
os principais pontos para serem salientados nos momentos de capacitação
dos usuários e na organização de manual de utilização do sistema.
Um dos grandes desafios para se assegurar a consistência dos dados de
um sistema é a orientação quanto ao seu registro. Assim, a capacitação
de todos os envolvidos com a gestão da extensão e com as ações extensionistas é imprescindível para que se garanta não só o registro dessas,
como também a qualidade dos dados, de forma a se obter o quadro real
da extensão na instituição. Sem dados consistentes não se obtém informações confiáveis. Nesse sentido, a instância gestora da extensão deverá
fomentar a cultura de registro e os mecanismos de apoio em relação ao
uso do sistema, bem como investir em processos de auditoria dos registros, para sua validação.
5.3.5. O Sistema de Informação da Extensão da UFMG – SIEX/UFMG
A finalidade do SIEX/UFMG é propiciar suporte à gestão da extensão,
e visa ao cadastro e ao gerenciamento de dados que podem ser acessado
on-line, além de permitir o registro, o armazenamento e a disponibilização dos dados das ações de extensão. Esse sistema foi concebido para
diferentes usos e grupos de usuários: uma interface para docentes e
133
técnico-administrativos registrarem suas ações de extensão; outra para
os visitantes consultarem essas ações; outra para os Centros de Extensão
(CENEX) aprovarem os registros dessas ações e acessarem os relatórios
específicos da sua unidade; outra para a PROEX administrar o sistema
e acessar os relatórios gerais. Para a orientação dos usuários que lançam
dados no sistema, foi elaborado e disponibilizado o manual de orientações do SIEX/UFMG.
Os formulários do sistema foram construídos de forma a levantar vários
dados relevantes para o conhecimento, gestão e avaliação das ações de
extensão, alinhadas às diretrizes e aos princípios da extensão. Os formulários são constituídos por seis abas: descrição, equipe, parcerias,
abrangência, resultados atingidos e histórico, sendo que os formulários
de programas e projetos têm uma aba a mais, para o registro das ações
vinculadas. Em cada uma dessas abas, são solicitados vários dados.
As consultas no SIEX/UFMG podem ser realizadas a partir de vários
filtros, de forma simultânea: período de execução, tipo de ação, membro
da equipe, título ou palavra-chave, status, unidade, departamento, área
temática, linha de extensão, área de conhecimento, tipo de bolsa de extensão. A partir da seleção dos filtros, o sistema apresenta uma relação
das ações, permitindo que se abra o formulário da ação que interessa
consultar, como ilustrado pelo exemplo a seguir.
134
135
O SIEX/UFMG disponibiliza, ainda, lista de coordenadores das ações
e de parceiros, cujo acesso é exclusivo para os usuários coordenadores
de CENEX e para a equipe de gestão da PROEX. O sistema também
é programado para gerar diversos relatórios em tempo real, como (a) o
relatório de evolução das ações, por tipo de ação, áreas temáticas e áreas
de conhecimento e (b) os relatórios institucionais: para a Pró-Reitoria de
Planejamento, para a Comissão Permanente de Pessoal Docente e para o
Instituto Nacional de Estudos e Pesquisas Anísio Teixeira (INEP); (c) relatórios de curso, de evento e de prestação de serviço, por tipo de caracterização de cada uma dessas ações; (d) relatórios das ações por unidade e
departamento; (e) relatórios interdepartamentais (exibe uma relação de
membros das categorias docente e técnico-administrativo e suas formas
de participação nas ações de extensão); (f) relatórios referentes às equipes (exibe a quantidade e o percentual dos membros da equipe, de acordo
com a sua categoria – aluno, docente, técnico e participante externo à
UFMG); (g) ações por linhas de extensão; (h) produções; (i) bolsas de
extensão; (j) parceiros; (k) categorização de parceiros; (l) formas de parceria; (m) ações que têm vínculo com edital de fomento e com política
pública; (n) ações que têm vínculo com ensino e pesquisa; (o) ações que
têm vínculo com programa e projeto; (p) relatório de público atingido
em cursos e nas demais ações de extensão; (q) abrangência das ações por
meio de georreferenciamento, conforme exemplificado a seguir.
136
Relatórios: Evolução por Tipos das Ações de Extensão 01/2013 - 08/2013
912
Número de ações de Extensão
684
456
228
0
Jan / 13
Fev / 13
Mar/ 13
Abr/ 13
Mai/ 13
Meses
Projeto
Evento
Prestação de serviço
Curso
Programa
Jun/ 13
Jul / 13
Ago/ 13
137
Relatório: Ações de Extensão - Bolsas 01/2013 - 08/2013 - Números de bolsas
FAPEMIG
FUMP
1.296
INSTITUCIONAL DA PROEX
OUTRAS
880
PROEXT
PBEXT
641
175
189
19
Relatório: Ações de Extensão - Bolsas 01/2013 - 00/2013 - Valores em porcentagem (%)
20
5.5
0.6
FAPEMIG
5.9
FUMP
INSTITUCIONAL DA PROEX
40.5
OUTRAS
PROEXT
27.5
PBEXT
Georreferenciado das ações de extensão - SIEX / UFMG
138
139
5.4. Implementação de um sistema de avaliação da extensão da
UFMG para a alocação de vagas docentes nos departamentos
5.4.1 Construção de sistema de monitoramento e avaliação
A gestão da extensão da UFMG é realizada pela Pró-Reitoria de Extensão
(PROEX) e pelos Centros de Extensão (CENEX) das diversas unidades
da Universidade. A PROEX é composta pelo Gabinete do Pró-Reitor,
por três diretorias: de Política de Extensão (DPE), de Fomento (DIFE) e
de Avaliação (DAEXT), e pelos setores de apoio administrativo: Assessoria Acadêmica, Secretaria, Financeiro e Comunicação. Compõe também
a estrutura de gestão da extensão na UFMG a Coordenadoria de Informação, vinculada à DPE. O órgão colegiado deliberativo da extensão é a
Câmara de Extensão.
As ações de extensão são propostas por docentes e técnicos da UFMG
e aprovadas pelos órgãos de deliberação de suas respectivas unidades,
sendo registradas no SIEX/UFMG. O número de ações de extensão
registrado em 2012 foi de 2462, sendo 192 programas, 1068 projetos,
457 prestações de serviços, 399 cursos e 346 eventos. A Universidade
disponibiliza de seu orçamento em torno de 900 bolsas mensais, distribuídas anualmente para programas e projetos selecionados por meio de
editais internos.
A PROEX/UFMG vem, desde 2002, investindo esforços na estruturação de um sistema de monitoramento e avaliação de suas ações de
extensão. Nesse sentido, ao conceber a avaliação como um processo
de investigação de caráter político-institucional de tomada de decisões,
estabeleceram-se como metas: reforçar a potencialidade e os sucessos das
ações, apreender e analisar a realidade da extensão universitária, ajustar
o planejamento da gestão e as ações aos objetivos da política de extensão
e divulgar a qualidade e quantidade das ações de extensão.
A construção do sistema de monitoramento e avaliação vem sendo realizada
de forma processual, por meio da implementação de ações, instrumentos e
140
indicadores articulados, orientados por princípios comuns, com o objetivo de tornar permanente a avaliação institucional das ações de extensão.
Atualmente, o sistema é constituído por um conjunto de instrumentos
e processos: (a) Sistema de Informações de Extensão – SIEX/UFMG,
que viabiliza uma visão geral da produção da extensão, bem como a
construção de indicadores a partir dos dados registrados; (b) Sistema de
Fomento de Bolsas de Extensão, que abrange a submissão de propostas de
programas e projetos nos editais internos de bolsas de extensão; o processamento da seleção; o registro, o controle de frequência e a avaliação
dos bolsistas, bem como o controle de pagamento desses; (c) processos
e instrumentos de análise de mérito das ações de extensão pelos colegiados das unidades de origem dos coordenadores dos programas/projetos
e pela Câmara de Extensão; (d) Sistema Conhecimento e Cultura da
UFMG, que permite a inscrição e seleção de trabalhos desenvolvidos pelos alunos nos programas e projetos de extensão, apresentados e avaliados
por comissões designadas pela Câmara de Extensão; (e) relatórios do Sistema de Informação e Gestão de Projetos (SIGProj) dos programas/projetos contemplados pelo Programa de Extensão Universitária ProExt/
MEC/Sesu; (f) avaliação institucional da extensão do FORPROEX. Essa
última amplia a dimensão da avaliação da extensão para além das ações,
abrangendo: a política de extensão, a infraestrutura, o plano acadêmico,
a produção acadêmica e a relação universidade-sociedade (FORPROEX,
2001, p. 49).
O uso combinado desses instrumentos e processos possibilita a avaliação
das ações de extensão em três momentos: (1) na proposição ou renovação
do registro das ações no SIEX/UFMG, para efeito de seleção para editais; (2) durante o desenvolvimento desses, pela comissão de julgamento
dos trabalhos apresentados no Encontro de Extensão da UFMG (por
volta de setembro ou outubro) e pelos relatórios parciais dos programas
e projetos contemplados pelo Edital do ProExt/MEC e; (3) ao final de
cada ano, pelos orientadores e bolsistas participantes das ações de extensão, por meio dos questionários de avaliação, bem como pelos relatórios
finais do ProExt, elaborados pelos coordenadores dos respectivos programas/projetos.
141
A estruturação desse sistema, em fase de construção, caminha para um
tipo de avaliação mista, envolvendo atores internos ao processo de implementação de programas/projetos (coordenadores, orientadores e alunos
participantes dessas ações) e avaliadores externos ao programa/projeto
(comitês e conselheiros da Câmara de Extensão, CENEX, e assessores
técnicos da PROEX).
Os principais aspectos avaliados por meio desse sistema são: a evolução
das ações de extensão; o apoio institucional a essas ações; a participação
dos alunos; as parcerias; o cumprimento dos objetivos, dos princípios e
das diretrizes da extensão. Assim, o sistema de avaliação contribui para
configurar o planejamento da gestão da extensão, subsidiando a tomada
de decisões que propiciou transformações, no sentido do cumprimento
das diretrizes da Política de Extensão.
A estrutura desse sistema tem viabilizado a ampliação e o aprofundamento do conhecimento sobre as ações de extensão desenvolvidas, bem como
sobre os produtos gerados por essas. Dessa forma, contribuiu significativamente para disponibilizar informações para os setores acadêmicos e
administrativos da UFMG, para avaliação institucional da extensão do
FORPROEX e para o Censo da Educação Superior INEP/Sesu/MEC.
Outra contribuição importante desse sistema, articulado à ação da equipe da PROEX, tem sido subsidiar as deliberações da Câmara de Extensão
relacionadas à formulação de editais internos, seleção de programas/
projetos a serem contemplados pelos referidos editais, premiação de trabalhos, autorização para cursos de aperfeiçoamento, entre outras.
Em relação à capacidade da avaliação gerar efeitos na gestão da extensão, inovando procedimentos e rotinas, destacam-se como resultados o
progressivo registro das ações no SIEX/UFMG, a articulação de ações
aos programas e projetos. Ressalta-se a implantação dos questionários
de avaliação do bolsista on-line, que tem agilizado a análise dos dados,
142
contribuindo para maior consistência dos mesmos, para o aprimoramento do processo de seleção de programas/projetos para editais de órgãos
públicos, bem como para maior agilidade na consulta, na elaboração de
relatórios e na organização de eventos de extensão.
Não obstante os avanços conquistados nesse processo de acompanhamento e avaliação das ações de extensão, destacam-se alguns desafios
para a gestão da política, como a criação de estratégias de valorização
da avaliação das ações por parte de seus coordenadores; a articulação da
avaliação da extensão à avaliação do ensino e da pesquisa; a implementação de mudanças de procedimentos técnico-acadêmico-administrativos
a partir dos resultados da avaliação; a identificação e a caracterização das
demandas e das respostas a essas demandas, considerando a capacidade
de sua triagem/priorização e de seu atendimento; e a divulgação da
qualidade e quantidade desse trabalho acadêmico. Observa-se, ainda, a
necessidade de introduzir outras estratégias de monitoramento das ações
de extensão, que viabilizem a sua retroalimentação.
Outros desafios são colocados em relação ao aperfeiçoamento do sistema
no que diz respeito ao desenvolvimento de uma metodologia de avaliação
mais voltada ao impacto de suas ações envolvendo, prioritariamente,
a comunidade/público atingido/instituições parceiras e a ampliação e
diversificação do universo de ações de extensão avaliadas, que hoje estão
prioritariamente focadas e consolidadas nos programas e projetos.
Ressalta-se que esse sistema tem alcançado, de modo geral, os objetivos
para os quais foi criado. No entanto, ter um sistema que revele todas as
dimensões da avaliação da extensão é um propósito a ser alcançado em
médio e longo prazos, cuja busca se encontra em curso.
143
5.4.2 A mensuração da produtividade da extensão para a alocação de
vagas docentes
A partir da descrição do sistema de monitoramento e avaliação da
UFMG, na seção anterior, passamos a destacar o sistema de avaliação da
produtividade dos departamentos em extensão para efeito de alocação de
vagas docentes, com base na produtividade acadêmica em extensão, enquanto processo formativo, somada às atividades de docência (graduação
e pós-graduação) e de pesquisa.
O desenvolvimento desse sistema partiu da compreensão de que essa
avaliação, alinhada às diretrizes de extensão nacionalmente consolidadas
e expressas na política de extensão da UFMG contemplada em seu Regimento Interno, no Plano de Desenvolvimento Institucional e normas
internas, deve induzir transformações na realidade da extensão.
Nessa perspectiva, buscou-se incentivar a expansão da atividade extensionista e a sua crescente estruturação orgânica por meio da articulação
das ações de extensão, bem como pelo fomento da sua qualificação em
relação ao cumprimento das diretrizes de extensão.
Definidos dois indicadores de avaliação: (a) percentual de professores do
departamento que se dedicam às ações de extensão e (b) ações desenvolvidas pelo
departamento; pontuadas de acordo com suas características e sua incidência nas diretrizes de extensão, buscou-se pontuar as ações com base nas
seguintes variáveis que as qualificam: a participação do aluno – indicador
da diretriz impacto na formação do discente; o caráter interdepartamental/interunidades – indicador da diretriz interdisciplinaridade; a articulação/vinculação a programas e/ou projetos – indicador da articulação
de ações; a amplitude da participação do público-alvo na ação (concepção, desenvolvimento, avaliação e elaboração de produtos) – indicador
de interação dialógica; e os produtos acadêmicos e sua divulgação – indicativo do impacto social.
Outro aspecto considerado na avaliação das ações foi o diferencial do esforço
empregado pelo departamento para o desenvolvimento dessas que, embora
144
do mesmo tipo, têm dimensões distintas. Assim, entre os cursos, por exemplo, considerou-se o “equivalente aluno” (carga horária do curso x número
de concluintes); para os eventos, o período de realização; e para a prestação
de serviço, o número de vezes para aquelas executadas de forma esporádica,
como assessorias, consultorias, curadorias, entre outras; e o período em
que é realizada, para aquelas de caráter contínuo, como os atendimentos
em espaços de cultura, ciência e tecnologia, e em saúde humana e animal.
No QUADRO 1, apresenta-se a definição da distribuição dos pesos entre as
ações do mesmo tipo, que buscam evidenciar o esforço para sua execução.
Vínculo a Programa
Sem vinculo = 1,5
Com vinculo = 2
Número de ações
vinculadas
<2
= 1,6
de 2 a 4 = 2,4
>=5 = 3
2
= 0,2
0
até 500
= 0,4
de 501 a 1600 = 0,7
> 1601
=1
Concluintes
x
Carga Horária
Curso
de 1 a 2 = 0,4
de 3 a 4 = 0,7
>4
=1
Período em dias
Evento
2 Caso o curso não tenha sido finalizado, durante o período de avaliação, recebe “0,2”.
3 Caso a prestação de serviços esporádica não tenha alcançado resultados dentro do período avaliado, a ação recebe “0,2”.
Projeto
Programa
Distribuição de pesos para distinção entre ações do mesmo tipo
QUADRO 1
até 3,99 = 0,4
de 4 a 7,99 = 0,7
>= 8
= 1
Contínua:
tempo em meses
3
0
= 0 ,2
de 1 a 3 = 0,4
de 4 a 10 = 0,7
>
= 1
Esporádica:
número de execuções
Prestação de Serviços
145
146
Ressalta-se que, nesse processo de avaliação, a indução da política de extensão em relação à articulação das ações e ao cumprimento de suas diretrizes
foi contemplada, entre outras estratégias, por meio da valorização dos
programas e projetos, com a definição de pesos maiores em relação aos demais tipos de ações. Assim, foram estabelecidos para os programas – peso 3,
projetos – peso 2 e eventos, cursos e prestação de serviços – peso 1 para cada.
Para a construção de cada um dos indicadores, foi necessário obter os dados
no SIEX/UFMG a partir dos registros das ações em formulários já implementados. O QUADRO 2 mostra os campos dos formulários desse sistema
que contemplam os dados utilizados na construção dos indicadores propostos para cada tipo de ação de extensão.
x
x
Resultados – nº concluintes
Produções – existência
x
x
x
x
x
x
x
x
x
x
x
x
Prestação de
Serviços
x
x
x
x
x
x
x
x
Evento
Resultados específicos = Tipo de prestação de
serviços e o nº vezes
x
x
x
x
x
x
x
x
x
Curso
Execuções = data de início/término
Realizações = data de início/término
Carga horária
Vinculação a projeto
Equipe
Coordenador da ação
Docentes – departamentos e/ou unidades
Bolsista – curso
Discente não bolsista – curso
Participação do público-alvo
Concepção da ação
Desenvolvimento
Avaliação
Elaboração de produtos
x
x
x
Projeto
x
x
Departamento do coordenador
Vinculação a programa
x
Programa
Unidade do coordenador
CAMPOS DO FORMULÁRIO DO
SISTEMA DE INFORMAÇÃO
Campos dos formulários do SIEX/UFMG cujos dados compõem as variáveis dos indicadores
de ações de extensão desenvolvidas pelo departamento
QUADRO 2
147
148
A partir do registro dos dados das ações de extensão necessários à composição dos indicadores, o SIEX/UFMG foi reprogramado para a elaboração do relatório específico que sintetiza os dados em informações.
Na etapa seguinte, elaborou-se um instrumento matemático com o objetivo de compor a pontuação de cada departamento, e programou-se o
SIEX/UFMG para a elaboração do relatório final com essa pontuação.
Esse relatório considerou os pesos entre as diferentes ações, bem como
entre as ações do mesmo tipo, conforme apresentados anteriormente no
QUADRO 1.
Sendo a composição dos indicadores de extensão feita a partir do levantamento de dados do SIEX/UFMG, tornou-se condição que esses dados
fossem consistentes e auditáveis, o que depende, fundamentalmente, da
qualidade dos registros das ações de extensão. Alcançar essa condição
tornou-se um dos desafios enfrentados após algumas simulações de levantamento dos indicadores no sistema, que mostraram a inconsistência
dos dados. Nesse sentido, a PROEX organizou e desenvolveu uma série
de estratégias para a revisão dos 2.563 registros de ações de 2011. Entre
essas: dois cursos de aperfeiçoamento em metodologias de monitoramento e avaliação da extensão, voltado para os profissionais envolvidos com a
gestão da extensão na Universidade; a organização de uma equipe de 20
revisores, composta por docentes e técnicos da Pró-Reitoria e convidados vinculados à gestão da extensão na UFMG; uma capacitação inicial,
primeiro para a equipe de revisores e, posteriormente, para os CENEX,
visando à formação para a auditoria dos registros e o acompanhamento
do processo de revisão dos registros por parte dos coordenadores das
ações registradas.
Nesse processo de revisão foram detectados problemas reincidentes nos
registros, em relação à: (a) natureza da ação – registros de ações que não
se enquadram no conceito de extensão universitária; (b) caracterização
da ação – tipo de ação, subcaracterização, áreas temáticas, linhas de extensão; (c) atualização do registro – duplicação, período de realização,
equipe, resultados, produtos, parceiros, conclusão da ação, entre outras
149
informações; (d) descrição da ação – falta de informação, falta de clareza,
incoerência na descrição dos elementos que compõem a proposta, entre
outros; (e) não observância das instruções do Manual de orientação do SIEX.
Os principais problemas detectados em relação aos registros das ações
consideradas para efeito de composição do indicador de vaga docente
nos remeteram a discussões relacionadas às concepções orientadoras da
política de extensão na UFMG e à necessidade de uma delimitação clara
da natureza das ações de extensão desenvolvidas. Identificou-se duas
questões centrais que sinalizam os desafios para a delimitação do que
são ações extensionistas dentre aquelas desenvolvidas na Universidade
e registradas no SIEX: (a) ações voltadas para público interno: ações de
formação continuada ou em serviço de servidores da Universidade, bem
como ações voltadas para o atendimento do servidor da Universidade:
saúde, qualidade de vida, entre outras, que se configuram como ações de
RH; ações vinculadas essencialmente ao ensino, voltadas para grupos ou
turmas de alunos e/ou a determinada disciplina, ou à pesquisa, voltadas
para grupos de pesquisa; os grupos de estudos de discentes, bem como as
ligas acadêmicas; ações formativas como: estágios curriculares; estágios
extracurriculares; práticas de ensino; internato rural; residência médica;
(b) prestação de serviço que não envolve a participação de alunos e não
atende às diretrizes de extensão.
A revisão dos registros do SIEX/UFMG do ano de 2011, inicialmente,
foi limitada ao trabalho da equipe de revisão e aos CENEX, porém acabou se tornando um processo amplo e rico de discussões e redefinições
conceituais e operacionais, bem como de mobilização da comunidade
universitária. Nesse sentido, envolveu discussões com a Câmara de Extensão, reuniões com a direção de todas as unidades e de alguns órgãos
da Universidade, bem como com os coordenadores e funcionários dos
CENEX. Como consequência das revisões conceituais e operacionais
que orientam o registro das ações de extensão e buscando facilitá-lo,
tornou-se necessário o dimensionamento e a realização de alterações no
SIEX e no seu manual de orientação.
150
Assim, a partir da definição dos indicadores com base na política de extensão, da revisão dos registros do SIEX/UFMG com a consequente qualificação dos dados necessários à sua composição, da definição dos pesos
das ações de extensão e da construção de um instrumento matemático
que viabilizou a programação do sistema para a elaboração de relatório
com as pontuações, criou-se a possibilidade de, em tempo real, acessar a
nota de cada departamento da universidade relacionada ao seu desempenho em extensão, definindo com o ensino e a pesquisa a distribuição das
vagas docentes na UFMG.
É importante observar que a construção de indicadores é processual e
que a extensão da UFMG está inaugurando a implantação de seus indicadores para alocação de vagas docentes. Assim, os pesos definidos para
as ações de extensão e os próprios indicadores deverão ter seu impacto
avaliado após a divulgação dos resultados da distribuição de vagas junto
à comunidade da UFMG, para que se possa verificar a necessidade de
alterações e avançar no redimensionamento dos indicadores e dos pesos
das ações.
5.5. Desafios
A Política Nacional de Extensão Universitária reforça e sinaliza alguns
desafios para o monitoramento e avaliação da extensão em parceria
com instituições nacionais, como o INEP, articulado com os sistemas
de monitoramento e avaliação já existentes, como o Censo da Educação
Superior; a incorporação da extensão universitária no processo de avaliação da Educação Superior, com definição de indicadores, metodologias e
instrumentos de apoio à implantação de sistemas de informação e gestão
informatizados no conjunto das instituições; a atualização dos sistemas
de informação e de avaliação da extensão universitária vigentes e a superação da prática de registro de dados isolados.
Não obstante os avanços já alcançados nesta área, faz-se necessária a institucionalização da função de monitoramento e avaliação nas universidades;
151
o estabelecimento de uma política de informação que institua regras e
padrões em relação aos sistemas de informações, às tecnologias utilizadas, à integração entre bases de dados e à infraestrutura; a definição
e produção de indicadores; o desenvolvimento de instrumentos para o
levantamento de informações; a estruturação de uma base de dados com
variáveis selecionadas para a construção dos indicadores e o desenvolvimento de ferramentas informacionais para o tratamento da informação.
5.6. Considerações finais
A estruturação de sistemas de monitoramento e avaliação traz desafios técnicos, como a usabilidade e o seu aprimoramento constante, bem como a
construção de novos relatórios gerenciais e o desafio político-institucional
no envolvimento e implicação dos usuários para o registro das ações de extensão e a sua atualização, visando à padronização dos dados. Para obter-se
uma base de dados consistente é necessária a mobilização da comunidade
acadêmica para o registro das ações de extensão, a qualificação desses registros e a formação das pessoas envolvidas na extensão.
Trata de um processo colaborativo e implica o desenvolvimento de sistemas
de informação e o envolvimento dos responsáveis pela gestão da extensão
na Universidade, da comunidade acadêmica, e dos desenvolvedores do
sistema, bem como o estabelecimento de estratégias de formação continuada da comunidade acadêmica em extensão universitária. Por meio da
mobilização dos conhecimentos advindos da experiência de todos os partícipes, torna-se possível viabilizar uma práxis reflexiva e ampliar, avançar e
aprimorar o monitoramento e a avaliação da gestão da extensão e de seus
programas, projetos, cursos, eventos e prestação de serviços.
Nessa perspectiva, reveste-se de especial importância a decisão político-institucional para o desenvolvimento de sistemas de informação e de
monitoramento e avaliação, entendido como um conjunto articulado de
instrumentos, cuja construção é processual e permanente, devendo considerar seu caráter contextual e diálogo com a gestão e com a comunidade.
152
referências
BOURGON, Jocelyne. Finalidade pública, autoridade governamental e
poder coletivo. Revista do Serviço Público. Brasília 61 (1): 67-96 jan./mar.
2010.
GOMES, Alfredo Macedo. Política de avaliação da educação superior:
controle e massificação. Revista Educ. Soc., Campinas, v. 23, n. 80, set.
2002, p. 275-298.
FORPROEX. Plano nacional de extensão universitária. Ilhéus: Editus: 2001.
(Coleção Extensão Universitária, v. 1)
FORPROEX. Sistema de dados e informações: Base Operacional de acordo
com o Plano Nacional de Extensão. Rio de Janeiro: NAPE, UERJ, 2001.
(Coleção Extensão Universitária; v. 2)
FORPROEX. Avaliação nacional da extensão universitária. Brasília: MEC/
Sesu, Paraná: UFPR, Ilhéus: UESC, 2001. (Coleção Universitária, v. 3)
FORPROEX. Extensão universitária: organização e sistematização. Belo
Horizonte: Coopmed, 2007 (Coleção Extensão Universitária, v. 6)
FORPROEX. Política nacional de extensão universitária. Manaus, 2012.
LAUDON, Kenneth C.; LAUDON, Jane P. Sistemas de informações
gerenciais: administrando a empresa digital. 5. ed. São Paulo: Prentice
Hall, 2004. 562 p.
MARTELETO, Regina M. Informação: elemento regulador dos sistemas,
fator de mudança social ou fenômeno pós-moderno? Ci. Inf., Brasília, v. 16,
n. 2, p. 169-180, jul./dez. 1987. Disponível em: <http://revista.ibict.br/
ciinf/index.php/ciinf/article/viewFile/1473/1092>.
153
NOGUEIRA, M. D. P. (Org.). Extensão Universitária: diretrizes conceituais
e políticas: documentos básicos do Fórum de Pró-Reitores de Extensão
das Universidades Públicas Brasileiras. Belo Horizonte: PROEX/UFMG,
2001.
O’BRIEN, James A. Sistemas de informação e as decisões gerenciais na era da
Internet. 2. ed. São Paulo. Editora Saraiva, 2004. 526 p.
ROBBINS, S. P. Administração: mudanças e perspectivas. São Paulo:
Saraiva, 2000. Cap. 5: Sistemas de Planejamento.
SIEX/UFMG. Sistema de informação da extensão da universidade.
Disponível em: <https://sistemas.ufmg.br/siex/>.
SHAPIRO, Janet. Monitoramento e avaliação, [s/d]. (Documento de
trabalho)
TERTO, Ana Luisa V. O processo de produção e sistematização de informação
dos programas e projetos de extensão e o uso do sistema de informação da extensão
da UFMG: um estudo a partir da perspectiva compreensiva. Texto
qualificação de Dissertação Mestrado, ECI – UFMG, 2012.
VAITSMAN, Jeni; RODRIGUES, Roberto Wagner S; PAES-SOUSA,
Rômulo. O sistema de avaliação e monitoramento das políticas e programas
sociais: a experiência do Ministério do Desenvolvimento Social e Combate
à Fome do Brasil. Brasília, DF: Unesco, 2006
ANEXO
156
anexo
Linhas de extensão, em ordem alfabética, para classificação das ações de extensão
universitária e formas de operacionalização mais frequentes
(Continua)
N. Linha de Extensão
Formas de operacionalização mais frequentes
1
2006 – Alfabetização,
leitura e escrita
Alfabetização e letramento de crianças, jovens e adultos; formação
do leitor e do produtor de textos; incentivo à leitura; literatura;
desenvolvimento de metodologias de ensino da leitura e da escrita
e sua inclusão nos projetos político-pedagógicos das escolas.
2
2006 – Artes cênicas
Dança, teatro, técnicas circenses, performance; formação,
capacitação e qualificação de pessoas que atuam na área; memória,
produção e difusão cultural e artística.
3
Ações multiculturais, envolvendo as diversas áreas da produção e
2006 – Artes integradas da prática artística em um único programa integrado; memória,
produção e difusão cultural e artística.
4
2006 – Artes plásticas
Escultura, pintura, desenho, gravura, instalação, apropriação;
formação, memória, produção e difusão cultural e artística.
5
2006 – Artes visuais
Artes gráficas, fotografia, cinema, vídeo; memória, produção
e difusão cultural e artística.
2006 – Comunicação
estratégica
Elaboração, implementação e avaliação de planos estratégicos
de comunicação; realização de assessorias e consultorias para
organizações de natureza diversa em atividades de publicidade,
propaganda e de relações públicas; suporte de comunicação a
programas e projetos de mobilização social, a organizações
governamentais e da sociedade civil.
6
157
(Continua)
N. Linha de Extensão
Formas de operacionalização mais frequentes
2006 – Desenvolvimento
de produtos
Produção de origem animal, vegetal, mineral e laboratorial;
manejo, transformação, manipulação, dispensação, conservação
e comercialização de produtos e subprodutos.
2006 –Desenvolvimento
regional
Elaboração de diagnóstico e de propostas de planejamento
regional (urbano e rural) envolvendo práticas destinadas à
elaboração de planos diretores, a soluções, tratamento de
problemas e melhoria da qualidade de vida da população
local, tendo em vista sua capacidade produtiva e potencial de
incorporação na implementação das ações; participação em
fóruns Desenvolvimento Local Integrado e Sustentável – DLIS;
participação e assessoria a conselhos regionais, estaduais e locais
de desenvolvimento e a fóruns de municípios e associações
afins; elaboração de matrizes e estudos sobre desenvolvimento
regional integrado, tendo como base recursos locais renováveis
e práticas sustentáveis; permacultura; definição de indicadores
e métodos de avaliação de desenvolvimento, crescimento e
sustentabilidade.
2006 – Desenvolvimento
rural e questão agrária
Constituição e/ou implementação de iniciativas de reforma
agrária, matrizes produtivas locais ou regionais e de políticas
de desenvolvimento rural; assistência técnica; planejamento
do desenvolvimento rural sustentável; organização rural;
comercialização; agroindústria; gestão de propriedades e/
ou organizações; arbitragem de conflitos de reforma agrária;
educação para o desenvolvimento rural; definição de critérios
e de políticas de fomento para o meio rural; avaliação de
impactos de políticas de desenvolvimento rural.
2006 – Desenvolvimento
tecnológico
Processos de investigação e produção de novas tecnologias,
técnicas, processos produtivos, padrões de consumo e
produção (inclusive tecnologias sociais, práticas e protocolos
de produção de bens e serviços); serviços tecnológicos; estudos
de viabilidade técnica, financeira e econômica; adaptação de
tecnologias.
7
8
9
10
158
(Continua)
N. Linha de Extensão
2006 –
11 Desenvolvimento
urbano
Formas de operacionalização mais frequentes
Planejamento, implementação e avaliação de processos e
metodologias visando proporcionar soluções e o tratamento
de problemas das comunidades urbanas; urbanismo.
12
2006 – Direitos
individuais e coletivos
Apoio a organizações e ações de memória social, defesa, proteção
e promoção de direitos humanos; direito agrário e fundiário;
assistência jurídica e judiciária, individual e coletiva, a instituições
e organizações; bioética médica e jurídica; ações educativas e
preventivas para garantia de direitos humanos.
13
2006 – Educação
profissional
Formação técnica profissional, visando a valorização,
aperfeiçoamento, promoção do acesso aos direitos trabalhistas
e inserção no mercado de trabalho.
2006 –
Empreendedorismo
Constituição e gestão de empresas juniores, préincubadoras, incubadoras de empresas, parques e polos
tecnológicos, cooperativas e empreendimentos solidários e
outras ações voltadas para a identificação, aproveitamento de
novas oportunidades e recursos de maneira inovadora, com
foco na criação de empregos e negócios, estimulando a próatividade.
2006 – Emprego e
15
renda
Defesa, proteção, promoção e apoio a oportunidades de
trabalho, emprego e renda para empreendedores, setor informal,
proprietários rurais, formas cooperadas/associadas de produção,
empreendimentos produtivos solidários, economia solidária,
agricultura familiar, dentre outros.
2006 – Endemias e
16
epidemias
Planejamento, implementação e avaliação de metodologias
de intervenção e de investigação tendo como tema o perfil
epidemiológico de endemias e epidemias e a transmissão de
doenças no meio rural e urbano; previsão e prevenção.
14
159
(Continua)
N. Linha de Extensão
Formas de operacionalização mais frequentes
2006 – Espaços de
ciência
Difusão e divulgação de conhecimentos científicos e tecnológicos
em espaços de ciência, como museus, observatórios, planetários,
estações marinhas, entre outros; organização desses espaços.
18 2006 – Esporte e lazer
Práticas esportivas, experiências culturais, atividades físicas
e vivências de lazer para crianças, jovens e adultos, como
princípios de cidadania, inclusão, participação social e
promoção da saúde; esportes e lazer nos projetos político-pedagógico das escolas; desenvolvimento de metodologias
e inovações pedagógicas no ensino da Educação Física,
Esportes e Lazer; iniciação e prática esportiva; detecção e
fomento de talentos esportivos.
19 2006 – Estilismo
Estilismo e moda.
17
2006 – Fármacos e
medicamentos
Uso correto de medicamentos para a assistência à saúde, em seus
processos que envolvem a farmacoterapia; farmácia nuclear;
diagnóstico laboratorial; análises químicas, físico- -químicas,
biológicas, microbiológicas e toxicológicas de fármacos, insumos
farmacêuticos, medicamentos e fitoterápicos.
2006 – Formação de
21 professores (formação
docente)
Formação e valorização de professores, envolvendo a
discussão de fundamentos e estratégias para a organização
do trabalho pedagógico, tendo em vista o aprimoramento
profissional, a valorização, a garantia de direitos trabalhistas
e a inclusão no mercado de trabalho formal.
2006 – Gestão do
trabalho
Estratégias de administração; ambiente empresarial; relações
de trabalho urbano e rural (formas associadas de produção,
trabalho informal, incubadora de cooperativas populares,
agronegócios, agroindústria, práticas e produções caseiras,
dentre outros).
20
22
160
(Continua)
N. Linha de Extensão
Formas de operacionalização mais frequentes
23
2006 – Gestão
informacional
Sistemas de fornecimento e divulgação de informações econômicas,
financeiras, físicas e sociais das instituições públicas, privadas e do
terceiro setor.
24
2006 – Gestão
institucional
Estratégias administrativas e organizacionais em órgãos e instituições
públicas, privadas e do terceiro setor, governamentais e nãogovernamentais.
25 2006 – Gestão pública
Sistemas regionais e locais de políticas públicas; análise do
impacto dos fatores sociais, econômicos e demográficos nas
políticas públicas (movimentos populacionais, geográficos
e econômicos, setores produtivos); formação, capacitação e
qualificação de pessoas que atuam nos sistemas públicos (atuais
ou potenciais).
2006 – Grupos sociais
vulneráveis
Questões de gênero, de etnia, de orientação sexual, de diversidade
cultural, de credos religiosos, dentre outros, processos de atenção
(educação, saúde, assistência social, etc.), de emancipação, de
respeito à identidade e inclusão; promoção, defesa e garantia de
direitos; desenvolvimento de metodologias de intervenção.
2006 – Infância e
adolescência
Processos de atenção (educação, saúde, assistência social, etc.),
promoção, defesa e garantia de direitos; ações especiais de
prevenção e erradicação do trabalho infantil; desenvolvimento
de metodologias de intervenção tendo como objeto enfocado
na ação crianças, adolescentes e suas famílias.
2006 – Inovação
tecnológica
Introdução de produtos ou processos tecnologicamente novos
e melhorias significativas a serem implementadas em produtos
ou processos existentes nas diversas áreas do conhecimento;
considera-se uma inovação tecnológica de produto ou processo
aquela que tenha sido implementada e introduzida no mercado
(inovação de produto) ou utilizada no processo de produção
(inovação de processo).
29 2006 – Jornalismo
Processos de produção e edição de notícias para mídias
impressas e eletrônicas; assessorias e consultorias para órgãos
de imprensa em geral; crítica de mídia.
26
27
28
161
(Continua)
N. Linha de Extensão
Formas de operacionalização mais frequentes
30 2006 – Jovens e adultos
Processos de atenção (saúde, assistência social, etc.),
emancipação e inclusão; educação formal e não formal;
promoção, defesa e garantia de direitos; desenvolvimento
de metodologias de intervenção, tendo como objeto a
juventude e/ou a idade adulta.
2006 – Línguas
31
estrangeiras
Processos de ensino/aprendizagem de línguas estrangeiras
e sua inclusão nos projetos político-pedagógicos das escolas;
desenvolvimento de processos de formação em línguas
estrangeiras; literatura; tradução.
2006 – Metodologias e
32 estratégias de ensino/
aprendizagem
Metodologias e estratégias específicas de ensino/aprendizagem,
como a educação a distância, o ensino presencial e de pedagogia
de formação inicial, educação continuada, educação permanente
e formação profissional.
33 Mídias-arte
Mídias contemporâneas, multimídia, web-arte, arte digital.
34 Mídias
Veículos comunitários e universitários, impressos e eletrônicos
(boletins, rádio, televisão, jornal, revistas, internet, etc.);
promoção do uso didático dos meios de educação e de ações
educativas sobre as mídias.
35 2006 – Música
Apreciação, criação e performance; formação, capacitação e
qualificação de pessoas que atuam na área musical; produção e
divulgação de informações, conhecimentos e material didático
na área; memória, produção e difusão cultural e artística.
2006 – Organizações
da sociedade civil e
36
movimentos sociais e
populares
Apoio à formação, organização e desenvolvimento de
comitês, comissões, fóruns, associações, ONG’s, OSCIP’s,
redes, cooperativas populares, sindicatos, dentre outros.
162
(Continua)
N. Linha de Extensão
Formas de operacionalização mais frequentes
37 cultural, histórico,
Preservação, recuperação, promoção e difusão de patrimônio
artístico, cultural e histórico (bens culturais móveis e imóveis,
obras de arte, arquitetura, espaço urbano, paisagismo, música,
literatura, teatro, dança, artesanato, folclore, manifestações
religiosas populares), natural (natureza, meio ambiente) material
e imaterial (culinária, costumes do povo), mediante formação,
organização, manutenção, ampliação e equipamento de museus,
bibliotecas, centros culturais, arquivos e outras organizações
culturais, coleções e acervos; restauração de bens móveis e
imóveis de reconhecido valor cultural; proteção e promoção do
folclore, do artesanato, das tradições culturais e dos movimentos
religiosos populares; valorização do patrimônio; memória,
produção e difusão cultural e artística.
2006 – Pessoas
com deficiências,
38
incapacidades, e
necessidades especiais
Processos de atenção (educação, saúde, assistência social,
etc.), de emancipação e inclusão de pessoas com deficiências,
incapacidades físicas, sensoriais e mentais, síndromes, doenças
crônicas, altas habilidades, dentre outras; promoção, defesa
e garantia de direitos; desenvolvimento de metodologias de
intervenção individual e coletiva, tendo como objeto enfocado na
ação essas pessoas e suas famílias.
2006 – Propriedade
intelectual e patente
Processos de identificação, regulamentação e registro de direitos
autorais e sobre propriedade intelectual e patente.
2006 – Questões
ambientais
Implementação e avaliação de processos de educação ambiental
de redução da poluição do ar, águas e solo; discussão da Agenda
21; discussão de impactos ambientais de empreendimentos e
de planos básicos ambientais; preservação de recursos naturais
e planejamento ambiental; questões florestais; meio ambiente e
qualidade de vida; cidadania e meio ambiente.
2006 – Patrimônio
natural e imaterial
39
40
163
(Continua)
N. Linha de Extensão Formas de operacionalização mais frequentes
41
2006 – Recursos
hídricos
Planejamento de microbacias, preservação de mata ciliar e dos
recursos hídricos, gerenciamento de recursos hídricos e bacias
hidrográficas; prevenção e controle da poluição; arbitragem
de conflitos; participação em agências e comitês estaduais e
nacionais; assessoria técnica a conselhos estaduais, comitês e
consórcios municipais de recursos hídricos.
Orientação para desenvolvimento de ações normativas,
operacionais, financeiras e de planejamento com base em critérios
sanitários, ambientais e econômicos, para coletar, segregar, tratar
e dispor o lixo; orientação para elaboração e desenvolvimento de
42 2006 – Resíduos sólidos projetos de planos de gestão integrada de resíduos sólidos urbanos,
coleta seletiva, instalação de manejo de resíduos sólidos urbanos
reaproveitáveis (compostagem e reciclagem), destinação final
(aterros sanitários e controlados), e remediação de resíduos a céu
aberto; orientação à organização de catadores de lixo.
43 2006 – Saúde animal
Processos e metodologias visando a assistência à saúde animal:
prevenção, diagnóstico e tratamento; prestação de serviços
institucionais em laboratórios, clínicas e hospitais veterinários
universitários.
44 2006 – Saúde da família
Processos assistenciais e metodologias de intervenção para a saúde
da família.
2006 – Saúde e
45
proteção no trabalho
Processos assistenciais, metodologias de intervenção, ergonomia,
educação para a saúde e vigilância epidemiológica ambiental, tendo
como alvo o ambiente de trabalho e como público os trabalhadores
urbanos e rurais; saúde ocupacional.
46 2006 – Saúde humana
Promoção da saúde das pessoas, famílias e comunidades;
humanização dos serviços; prestação de serviços institucionais
em ambulatórios, laboratórios, clínicas e hospitais universitários;
assistência à saúde de pessoas em serviços especializados de
diagnóstico, análises clínicas e tratamento; clínicas odontológicas,
de psicologia, dentre outras.
164
(Continua)
N. Linha de Extensão
Formas de operacionalização mais frequentes
2006 – Segurança
47
alimentar e nutricional
Incentivo à produção de alimentos básicos, auto-abastecimento,
agricultura urbana, hortas escolares e comunitárias, nutrição,
educação para o consumo, regulação do mercado de alimentos,
promoção e defesa do consumo alimentar.
2006 – Segurança
pública e defesa social
Planejamento, implementação e avaliação de processos e
metodologias, dentro de uma compreensão global do conceito de
segurança pública, visando proporcionar soluções e tratamento
de problemas relacionados; orientação e assistência jurídica,
judiciária, psicológica e social à população carcerária e seus
familiares; assessoria a projetos de educação, saúde e trabalho aos
apenados e familiares; questão penitenciária; violência; mediação
de conflitos; atenção a vítimas de crimes violentos; proteção a
testemunhas; policiamento comunitário.
2006 – Tecnologia da
49
informação
Desenvolvimento de competência informacional para identificar,
localizar, interpretar, relacionar, analisar, sintetizar, avaliar
e comunicar informação em fontes impressas ou eletrônicas;
inclusão digital.
2006 – Temas
específicos /
50
Desenvolvimento
humano
Temas das diversas áreas do conhecimento, especialmente de
ciências humanas, biológicas, sociais aplicadas, exatas e da
terra, da saúde, ciências agrárias, engenharias, lingüística,
(letras e artes), visando a reflexão, discussão, atualização e
aperfeiçoamento humano.
51 2006 – Terceira idade
Planejamento, implementação e avaliação de processos de atenção
(educação, saúde, assistência social, etc.), de emancipação e
inclusão; promoção, defesa e garantia de direitos; desenvolvimento
de metodologias de intervenção, tendo como objeto enfocado na
ação pessoas idosas e suas famílias.
48
165
(Conclusão)
N. Linha de Extensão
Formas de operacionalização mais frequentes
52 2006 – Turismo
Planejamento e implementação do turismo (ecológico, cultural,
de lazer, de negócios, religioso, etc.) como setor gerador
de emprego e renda; desenvolvimento de novas tecnologias
para avaliações de potencial turístico; produção e divulgação
de imagens em acordo com as especificidades culturais das
populações locais.
53
2006 – Uso de drogas e
dependência química
Prevenção e limitação da incidência e do consumo de drogas;
tratamento de dependentes; assistência e orientação a usuários
de drogas; recuperação e reintegração social.
Fonte:FORPROEX. Extensão universitária: organização e sistematização. Belo Horizonte: COOPMED,
2007. 112 p. (Coleção Extensão Universitária; v. 6).
