favoritar150036
Resumo: INTRODUÇÃO: a imunidade celular de pacientes com carcinoma epidermóide de cabeça e pescoço tem sido foco de muitos estudos nas últimas décadas. As alterações do sistema imune parecem estar relacionadas com a progressão da doença. A avaliação da imunidade celular desses casos é necessária para programar estratégias de imunoterapia. A deficiência nutricional, o tamanho tumoral e a recidiva são fatores que também podem estar relacionados com a piora imunitária e clínica. O objetivo deste trabalho foi verificar se portadores de carcinoma epidermóide de cabeça e pescoço têm imunidade celular e estado nutricional diferente de controles e sua correlação com tamanho tumoral e recidiva. MÉTODOS: foram avaliados 155 pacientes admitidos nos serviços de cirurgia de cabeça e pescoço e cirurgia geral do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo, entre 16 de agosto de 2005 a 31 de julho de 2006. Houve 52 controles e 103 casos com diagnóstico de carcinoma epidermóide de trato aerodigestivo alto, subdivididos em 29 casos pré-tratamento, 47 pós-tratamento sem doença e 27 pós-tratamento com doença. Foi realizada entrevista clínica, contendo dados demográficos, presença de tabagismo, etilismo e co-morbidades, e avaliado o índice de Karnofsky. Dados do tumor e tratamento foram anotados. Foi realizada avaliação nutricional antropométrica, através da medida do peso, estatura e índice de massa corpórea (IMC). A avaliação da composição corpórea foi feita através de bioimpedância elétrica, utilizando-se a porcentagem de massa magra em homens e mulheres. Os critérios bioquímicos usados foram concentração plasmática de albumina e contagem total de linfócitos (CTL). A avaliação da imunidade celular foi feita através de testes cutâneos com 3 antígenos (PPD, tricofitina e candidina). O tamanho tumoral também foi medido. A análise estatística foi feita através de média, desvio padrão, ANOVA e Bonferroni para variáveis numéricas e teste qui-quadrado de Pear
Avaliação da imunidade celular em pacientes com carcinoma ...
Sodré, Maria Teresa Assumpção Machado
favoritar150235
Resumo: A ricinocultura tem se destacado como uma das culturas mais promissoras nas regiões do semi-árido e cerrado, pois o óleo de mamona, além de ser empregado como matéria prima em diversas indústrias, apresenta potencial para fabricação de biodiesel. Este trabalho está fundamentado nas seguintes hipóteses: a) a produção de sementes e óleo de mamona está relacionada com o suprimento de boro (B). b) a toxicidade por este elemento é tão grave quanto a sua deficiência. c) A redistribuição deste micronutriente na planta é baixa ou restrita. O objetivo deste trabalho foi avaliar o efeito da deficiência e toxicidade de B na mamoneira (Ricinus communis L.), utilizando doses deste micronutriente em solução nutritiva, e avaliar a dinâmica do B na mamoneira utilizando compostos enriquecidos isotopicamente em 10B, através de dois experimentos: 1) Doses de 0. 0,025. 0,05. 0,10. 0,27. 2,70. 5,40 mg L-1 B em solução nutritiva, com análises da produção de MS, avaliações ultra-estruturais, medições de fotossíntese e transpiração e também o teor e viscosidade do óleo presente nas sementes produzidas. 2) 3 Aplicações de solução de ácido bórico enriquecido isotopicamente em 10B, sendo 2,7 mg B via foliar por planta e 1,0 mg B em solução nutritiva por planta, com posterior determinação de boro total e 10B por ICP-MS das partes da planta. Dentre os resultados obtidos verificou-se que não houve produção de frutos em plantas submetidas às doses de 0 e 0,025 mg L-1 B. Entretanto, em plantas apresentando sinais de toxicidade nas folhas, a produção não foi afetada. As principais alterações ultra-estruturais manifestaram-se na deficiência de B, através do espessamento da lamela média e na ausência de grânulos de amido. Dentre as sementes produzidas, os atributos de teor e viscosidade não mostraram diferenças significativas entre os tratamentos. Os valores de fotossíntese e transpiração foram menores nas plantas com deficiência e não mostraram diferenças significativas nos tratamentos de to
Boro em mamoneira: Aspectos morfológicos e fisiológicos re ...
Silva, Denis Herisson da
favoritar151422
Resumo: O presente estudo avaliou o estigma relacionado à esquizofrenia em duas amostras no Brasil: uma amostra de psiquiatras que estavam frequentando o XXVII Congresso Brasileiro de Psiquiatria, e uma amostra representativa da população geral do Brasil. Os objetivos do estudo foram: (1) avaliar o estigma da esquizofrenia na população geral e nos psiquiatras brasileiros. (2) analisar quais variáveis correlacionam-se com as medidas de estigma da esquizofrenia estudadas. (3) analisar se as amostras se comportam de maneira homogênea ou se há perfis diferentes de crenças estigmatizantes. (4) comparar psiquiatras e população brasileira com relação as suas crenças relacionadas à esquizofrenia. Com relação à amostra de psiquiatras, 1414 psiquiatras foram recrutados durante o XXVII congresso Brasileiro de Psiquiatria, realizado em São Paulo em 2009. Para a amostra de população geral, 2001 indivíduos representativos da população do Brasil foram escolhidos pelos métodos probabilístico e semi-probabilistico. Um instrumento avaliando quatro dimensões de estigma foi aplicado: atribuição de estereótipos, desejo por distância social, restrições a direitos civis e preconceito percebido. Para os psiquiatras, este instrumento foi aplicado face-a-face. antes da aplicação do instrumento foi dito que deviam responder ao mesmo pensando em uma pessoa com esquizofrenia. Para a população geral, o mesmo instrumento foi aplicado através de entrevistas telefônicas. Para a população, antes da aplicação do instrumento cinco diferentes vinhetas foram lidas. Quatro vinhetas descreviam casos clínicos de acordo com o DSM-IV (depressão, esquizofrenia, dependência de álcool, dependência de substâncias), e uma vinheta agia como controle (indivíduo estressado). Após a leitura da vinheta pedia-se que o participante opinasse se ela se tratava de um caso de distúrbio psiquiátrico, e se sim, qual. Para a amostra final da população geral, apenas os indivíduos designados para a vinheta de esquizofrenia (n=
Estereótipos e crenças relacionadas à esquizofrenia: um le ...
Loch, Alexandre Andrade
favoritar150050
Resumo: O ácido 5-aminolevulínico (5-ALA) é empregado como pró-fármaco, precursor de um agente fotossensibilizador na terapia fotodinâmica (TFD). Após a aplicação de 5-ALA topicamente, a incidência de luz visível de comprimento de onda apropriado induz a formação de uma substância altamente fluorescente e fotodinamicamente ativa, a Protoporfirina IX (PpIX).Todavia,devido a sua característica hidrofílica o 5-ALA apresenta reduzida penetração na epiderme e derme, limitando sua aplicação tópica. O presente trabalho apresenta o desenvolvimento de sistemas de veiculação nanoestruturados para o 5-ALA, visando maior penetração na pele e aumento da eficácia fotodinâmica. Além do 5-ALA, foram testados outros fármacos hidrofílicos, incluindo um anti-inflamatório, uma vitamina e um anti-microbiano, para validação do sistema de liberação controlada e ação sítio-específica. Foi realizado um estudo de desenvolvimento de formulação e processo para obtenção dos nanocarreadores placebo e posterior incorporação dos fámacos, além da caracterização completa dos sistemas obtidos, resultando no depósito de uma patente dos novos sistemas: Nanocarreadores Poliméricos Coloidais. Como principais resultados deste trabalho destaca-se a obtenção de sistemas em escala nanométrica, com alta eficiência de encapsulação e perfil de liberação controlado, além dos nanocarreadores proporcionarem o aumento da permeação cutânea e ação sítio específica dos fármacos, seja na célula cancerígena ou mesmo na lesão causada por microorganismos. A relevância deste trabalho baseou-se na necessidade de um tratamento prático, altamente seletivo e moderno, que seja otimizado mediante a administração do pró-farmaco 5-ALA em sistemas de liberação apropriados, pois a barreira epidérmica do tecido canceroso constitui ainda uma limitação para a TFD tópica.
Estudo de sistemas nanocarreadores para o ácido 5-aminolev ...
Cerize, Natália Neto Pereira
favoritar150209
Resumo: Esta dissertação apresenta os principais métodos estatísticos para analisar as séries temporais de fMRI com o objetivo de detectar regiões ativadas e caracterizar o erro envolvido nessa decisão. Na análise de imagens funcionais, devido à baixa razão sinal-ruído, torna-se necessário o uso de técnicas elaboradas de processamento. O resultado da aplicação de técnicas estatísticas sobre as séries temporais obtidas da imagem de fMRI, é um mapa estatístico paramétrico, (Statistical Parametric Map), (SPM), uma imagem 3-D que permite determinar o estado do voxel, ativado ou não ativado, e a significância estatística do resultado.  Propomos um novo método baseado na Difusão Anisotrópica Robusta, (Robust Anisotropic Diffusion), (RAD), que explora uma característica fundamental da imagem funcional, a correlação espacial das regiões ativadas do cérebro humano. O método proposto permite obter mapas estatísticos que melhoram a determinação das áreas ativadas a partir de dados fMRI ruidosos. Os novos mapas estatísticos paramétricos, baseados na correlação espacial da imagem fMRI, reduzem os erros do processo de classificação dos voxels, melhorando assim o mapeamento das regiões ativadas no cérebro. Aplicamos a técnica proposta em dados gerados artificialmente, simulando ruído e sinal, e avaliamos o novo método proposto e um método clássico de processamento de fMRI. Apresentamos resultados comparativos entre um método clássico, o método de correlação e o novo método. Calculamos os erros envolvidos e apresentamos a curvas características de operação de um receptor, (Receiver Operating Characteristics), (ROC), para ambos métodos, comparando os parâmetros mais importantes. Também avaliamos o novo método em dados reais de fMRI de um experimento em blocos com estímulo visual.
Ressonância magnética funcional com filtragem pela difusão ...
Giacomantone, Javier Oscar
favoritar150401
Resumo: Introdução: A luz intensa pulsada(LIP) tem sido muito utilizada no tratamento do fotoenvelhecimento sem completo conhecimento de seu mecanismo de ação. Métodos: Foram acompanhados 26 pacientes apresentando fotoenvelhecimento grau II-III (GLOGAU, 1994), os quais foram submetidas à avaliação clínica , histológica e imunoistoquímica 6 e 12 meses após o término do tratamento com LIP. Foram realizadas cinco sessões com intervalos de trinta dias. Além da quantificação histomorfométrica das fibras colágenas e elásticas na derme, foram avaliados CD1, CD4, CD8 e ICAM-1. Resultados: Após 6 meses houve melhora clínica moderada e intensa em 76,92% dos casos e a nota média de satisfação foi 8,57 correspondendo à melhora moderada. Após 12 meses do término do tratamento observou-se que 51,52% das pacientes apresentaram uma melhora clínica moderada em relação à clínica inicial. Os efeitos colaterais foram eritema (11/26), edema (10/26), ardência (7/26) e crostas (8/26). A quantificação das fibras colágenas mostrou aumento médio de 51,33% proporção média de fibra colágena na derme após 6 meses de tratamento e o aumento em relação a 12 meses do término do tratamento foi 30,17%. as fibras elásticas mostraram aumento de 44,13% após 6 meses e aumento de 143,19% após 12 meses do término do tratamento. Na análise imunoistoquímica não houve alteração de CD1 e CD8. Em relação ao CD4 houve redução significante após 12 meses do término do tratamento. Quanto ao ICAM-1 houve aumento em 6 meses com retorno aos níveis normais após 12 meses do término do tratamento. Conclusão: A melhora clínica observada foi comprovada pelo estudo histopatológico, que mostrou aumento das fibras colágenas e elásticas na derme. Após 12 meses do término do tratamento observou-se discreta redução do aspecto clínico da pele correlacionado ao histopatológico. Poucos efeitos colaterais foram observados, sendo todos reversíveis. Desta forma, a LIP constitui boa opção de tratamento para o fotoenvelhecimento cutâneo
Estudo comparativo pré e pós luz intensa pulsada no tratam ...
Patriota, Regia Celli Ribeiro
favoritar151423
Resumo: A filmagem e a verbalização são métodos de teste de usabilidade considerados fundamentais para apoiar a avaliação da usabilidade de software, pois permitem ao avaliador coletar dados reais da capacidade de interação de um sistema e sua influência sobre o usuário. Os testes são, geralmente, realizados com usuário reais do software para que os mesmos possam submeter a interface as mais diversas situações. Embora eficazes, a filmagem e a verbalização são pouco eficientes, pois necessitam de muito trabalho para análise dos dados coletados e identificação de problemas de usabilidade. Pesquisas já realizadas na área apontam para um tempo de análise de duas a dez vezes o tempo do teste. Este trabalho teve como objetivo desenvolver um ambiente computacional que utilizava eventos de pronuncia de palavras chave e reações faciais para apoiar o processo de coleta, análise e identificação de interfaces com possíveis problemas de usabilidade de forma rápida e segura. O ambiente foi composto por um aplicativo que monitorava (em segundo plano) a utilização de um determinado aplicativo registrando palavras chave pronunciadas pelo participante e imagens faciais em determinados intervalos de tempo. Além destes dados, imagens das telas do sistema (snapshots) também eram registrados a fim de indicar quais interfaces eram utilizadas no momento de um determinado evento. Após a coleta, estes dados eram organizados e disponibilizados para avaliador com destaques para eventos que poderiam indicar insatisfação do participante ou possíveis problemas na utilização. Foi possível concluir que os eventos relacionados à verbalização com palavras chave foram eficazes para apoiar a tarefa de análise e identificação de interfaces problemáticas, pois as palavras estavam relacionadas com classificadores que indicavam satisfação ou insatisfação por parte do usuário. A atividade de verbalização se mostrou mais eficiente quando a análise de seus dados foi aplicada em conjunto com as imagens faciais
Um ambiente de avaliação da usabilidade de software apoiad ...
Coleti, Thiago Adriano
favoritar150037
Resumo: O presente trabalho propõe um estudo das melhores práticas de Sistemas de Indicadores de Desempenho Institucionais em Organizações Públicas de Pesquisa, Desenvolvimento e Inovação (P&D&I), preferencialmente em organizações militares. Nos setores públicos, em especial nas organizações militares de pesquisa, desenvolvimento e inovação, tem se verificado a mobilização no sentido de estabelecer uma gestão contemporânea, baseada num Sistema de Indicadores de Desempenho, financeiros e não financeiros, estratégicos, táticos e operacionais, como uma ferramenta de controle organizacional na execução dos planos estabelecidos, no cumprimento da missão da organização, segundo um processo de melhoria contínua. Dentre as abordagens utilizadas para desenvolver um Sistema de Indicadores de Desempenho, desde a década de 90, destaca-se o Balanced Scorecard (BSC), baseado nos trabalhos desenvolvidos por Kaplan e Norton em 1986. O BSC coloca a estratégia e a missão  e não o controle  no centro da concepção do sistema de indicadores, por meio de um sistema gerencial contínuo de definição e avaliação, e disponibiliza informações tanto de caráter financeiro como não financeiro, em formatos lógicos. A proposta desta pesquisa é entender as experiências internacionais e nacionais de Sistemas de Indicadores de Desempenho Organizacionais, aplicáveis às organizações públicas de P&D&I, preferencialmente militares, e identificar suas melhores práticas. Ao final da pesquisa, é conduzida uma comparação entre as experiências analisadas, em operação ou planejadas, e são oferecidas algumas sugestões para a construção de um Sistema Institucional de Indicadores de Desempenho para uma organização pública de P&D&I, em especial militar. O estudo proposto insere-se no contexto atual de Sistemas de Indicadores de Desempenho Institucionais das organizações, com enfoque na abordagem estratégica do BSC, possuindo um papel inovador no desenvolvimento desta abordagem no Brasil, e em particular nas organiz
Estudo das melhores práticas de sistemas de indicadores de ...
Pereira, Maria Cecilia
favoritar151425
Resumo: A expressão da tendência anti-social parece sinalizar um protesto contra uma privação vivida precocemente. Expressão que pode surgir quando a criança tem esperança de que o ambiente possa responder positivamente, restabelecendo o desenvolvimento emocional. Quando esta reivindicação não é atendida no seio familiar, seus efeitos podem se manifestar na escola. Apesar do crescimento da violência nas escolas, constata-se a necessidade de aprofundamento dos estudos, especialmente na perspectiva do professor, alvo do investimento pulsional das crianças. Este investimento se caracteriza não apenas por impulsos amorosos, mas também destrutivos. O presente estudo foi realizado em uma escola pública da periferia de São Paulo e faz parte de um projeto mais amplo de atendimento preventivo a crianças agressivas, suas famílias e educadores. A pesquisa objetivou analisar relatos de professores que trabalham diariamente com crianças agressivas e investigar o papel da agressividade infantil como fator de promoção do sofrimento psíquico nestes docentes. As formas instituídas no ambiente escolar para administrar a agressividade dos alunos foram levantadas, a partir da análise dos cadernos de ocorrência disciplinar, onde os professores registram os episódios de agressividade infantil. Também foram analisados os dados coletados nas entrevistas individuais com 12 professores de nível fundamental, distribuídos em função de três diferentes períodos na carreira. As entrevistas foram gravadas, transcritas e os dados categorizados considerando a freqüência simples de ocorrência. As respostas dos professores em diferentes períodos de carreira profissional também foram comparadas. Os resultados apontaram diferenças na percepção da agressividade infantil e nas estratégias de manejo utilizadas pelos educadores com menor e maior tempo de ensino. Constatou-se que sentimentos de ingratidão e rancor podem ser nutridos e agravados com o tempo, sinalizando a importância de uma intervenção que aj
Eles cuidam de crianças. Quem cuida deles? O sofrimento ps ...
Castro, Rebeca Eugênia Fernandes de
favoritar150329
Resumo: Estudar os processos de participação relacionados à produção de uma política pública pode ser um elemento chave para a compreensão do modelo de gestão que se pretende implementar no Brasil, em especial em áreas de proteção ambiental a partir das exigências legais instituídas pelo Sistema Nacional de Unidades de Conservação da Natureza (SNUC). A consolidação de uma cultura democrática na gestão de políticas ambientais em unidades de conservação de uso sustentável passa pela compreensão das dinâmicas comunitárias e governamentais em processos de tomada de decisão, como o da elaboração de um plano de manejo. O presente trabalho se propõe a compreender como se dão tais processos de construção coletiva de um instrumento de gestão pública e consolidação de uma cultura política participativa a partir da produção do Plano de Manejo (PM) da Área de Proteção Ambiental (APA) Várzea do Rio Tietê, território que abrange 12 municípios da região metropolitana de São Paulo (SP). Para atender este propósito foi utilizada a metodologia da observação participante para a coleta de dados em atividades públicas realizadas pela equipe gestora do PM da APA Várzea do Rio Tietê, bem como a realização de entrevistas semi-estruturadas com atores envolvidos na elaboração do referido documento. A análise dos dados se deu a partir de base teórica centrada nas discussões sobre consciência, participação e negociação políticas, em um enfoque psicopolítico, e nas discussões acerca da gestão participativa de políticas ambientais no Brasil. A pesquisa identificou que apesar da existência de espaços formais de participação e tomada de decisão de atores governamentais e não governamentais no processo de produção do PM da APA Várzea do Rio Tietê  conforme exigido pela legislação vigente  , as estratégias adotadas por alguns participantes, bem como a noção de participação e gestão colegiada por eles destacadas  entre outros elementos , apontam para desafios a serem superados para se assegurar a efe
Consciência, participação e negociação: uma leitura psicop ...
Costa, Guilherme Borges da
favoritar150390
Resumo: Diante do estado crítico dos sistemas ambientais naturais no Brasil e no mundo, acreditamos que a interação entre as abordagens geográfica e ecológica no estudo da paisagem possa resultar em uma evolução nas pesquisas e planos para a conservação ambiental. Para explorar esse potencial, analisamos criticamente as diferenças fundamentais entre estas duas abordagens. Dentre elas, a questão do observador da paisagem, mais humano na Geografia e voltado para as necessidades das espécies na Ecologia. A principal consequência desta diferença se reflete na escala de apreensão e na delimitação da estrutura da paisagem, relacionando diversas variáveis na abordagem Geográfica e utilizando principalmente a vegetação na Ecológica. Visando explorar as possibilidades de interação destas duas abordagens, propusemos cinco estudos de caso. O primeiro propõe a identificação e mapeamento da paisagem na escala do continente sul americano. Utilizamos novas técnicas de sensoriamento remoto para analisar a estrutura da paisagem no território brasileiro por meio da variação da vegetação em uma série temporal de imagens MODIS EVI entre os anos 2000 e 2012. Os resultamos mostram que a técnica utilizada consegue diferenciar paisagens com diferentes níveis de complexidade em uma classificação contínua. Os outros estudos foram desenvolvidos em escala regional, na área que forma um corredor ecológico entre as Serras da Cantareira e Mantiqueira. No segundo estudo foi feita uma análise de regiões no modelo de ilhas - que considera a vegetação como base da estrutura da paisagem. Comparamos fragmentos florestais em uma malha de polígonos com mesma área considerando a área total e número como indicadores da fragmentação da paisagem. Essa análise por regiões facilita o entendimento da configuração da paisagem, tornando possível a identificação de áreas mais e menos favoráveis para a conservação e orientando planejamentos regionais. O terceiro estudo aborda as mudanças temporais na paisagem. Comp
Interações em estudos para conservação: conceitos e técnic ...
Sartorello, Ricardo
favoritar150402
Resumo: O estudo avaliou a influência de diversas formas de fototerapia na cicatrização de úlceras cutâneas de ratos nutridos e desnutridos (desnutrição induzida). No 1º experimento, de 60 ratos Wistar sob controle dietético, 30 foram selecionados aleatoriamente, recebendo metade da dieta diária para indução de desnutrição (marasmo), confirmada pela perda de massa corporal, sinais clínicos e dosagem de albumina sérica. Os animais nutridos (N) e desnutridos (D) foram distribuídos em grupos (n=10) conforme tratamento fototerápico, a saber: aparelhos desligados (LED e laser - sham) e ligados (4 LED´s 660 nm e 32 LED´s 890 nm, 500 mW. e laser HeNe 632,8 nm, 3 mW), sendo designados GNS, GNL, GNH, GDS, GDL e GDH, respectivamente. Duas úlceras cutâneas foram realizadas com punch 8 mm e irradiadas 3 vezes por semana durante 14 dias. Os programas LAS e Photoshop foram utilizados para análise histológica (HE) da espessura da pele após o período de desnutrição, e o ImageJ para análise das imagens e cálculo do índice de cicatrização das úlceras no 7º e 14º dias, além da análise histológica (tricrômio de Gomori) para avaliação da colagênese após a desnutrição e no 14º pós-operatório. No 2º experimento 30 ratos receberam dieta controle e 30 receberam dieta normoprotéica associada à proteína de baixa qualidade (gelatina) para induzir desnutrição. A distribuição dos animais em grupos foi semelhante ao experimento 1, porém utilizando o aparelho de laser de diodo (L1 660 nm e L2 808 nm, 100 mW), sendo designados GNS, GNL1, GNL2, GDS, GDL1 e GDL2, respectivamente. A confirmação da desnutrição, o procedimento cirúrgico, protocolo de tratamento e as análises de imagens e histológicas seguiram a mesma metodologia do experimento 1. Os resultados do experimento 1 mostraram que após o período de desnutrição, a espessura da derme dos animais desnutridos apresentou-se menor (p<0,0001) em relação aos nutridos, assim como o percentual da ) colagênese (p<0,0005). No 7º dia pós-operatório as úlce
Fototerapia como estímulo à cicatrização de úlceras cutâne ...
Leite, Saulo Nani
favoritar150212
Resumo: A definição adequada da lâmina para lixiviação de sais e recuperação de solos salinos depende da qualidade dos resultados obtidos por meio das diversas equações disponíveis para esse fim. Sabendo disso, objetivou-se, com este trabalho: a) avaliar a eficiência de equações empíricas utilizadas para determinar a lâmina de água necessária à recuperação de solos salinos, bem como, b) a caracterização da mobilidade e distribuição do íon sódio em colunas de solo usando dados experimentais e simulados no modelo computacional MIDI. O estudo constou de etapas experimentais e de simulação e foi conduzido nas dependências do Departamento de Engenharia de Biossistemas da Escola Superior de Agricultura Luiz de Queiroz - ESALQ/USP, Piracicaba - SP. O experimento em casa de vegetação consistiu na aplicação de três lâminas de lixiviação para lavagem e recuperação de dois materiais de solos, armazenados em 36 colunas. Anteriormente, cada solo foi artificialmente salinizado, por meio da aplicação de cloreto de sódio, elevando-se a condutividade elétrica da solução do solo para valores aproximados de 3,0 e 6,0 dS m-1. Assim, os tratamentos, em delineamento de blocos ao acaso, com três repetições, corresponderam a um fatorial de 3 x 2 x 2, decorrente das combinações de três lâminas de lixiviação com dois tipos de solo e dois níveis de salinidade. As lâminas, calculadas a partir do volume de poros de cada solo, foram aplicadas por meio de um sistema de irrigação (gotejamento) a uma vazão de 8 L h-1. Após a aplicação das lâminas, a solução do solo de cada coluna foi extraída e levada ao laboratório para se determinar a condutividade elétrica e concentração de sódio. Nesta etapa foram avaliadas as alterações nas características químicas do solo, em resposta à aplicação das lâminas. Em seguida, equações empíricas foram utilizadas para estimar as concentrações de sais remanescentes na solução do solo, em função das lâminas de lixiviação aplicadas. enquanto que o modelo MIDI foi emp
Eficiência de equações empíricas utilizadas para determina ...
Franco, Elenilson Moreira
favoritar152197
Resumo: Este estudo investiga se o planejamento tributário efetuado pelas companhias abertas é uma prática de gestão que gera valor para o acionista. Embora se possa conjeturar que o aumento de lucros proporcionado pela economia de tributos contribua para elevar o valor da firma, uma avaliação incompleta de todos os custos do planejamento tributário possibilita o surgimento de quadros em que os custos superam os benefícios, reduzindo o retorno para os acionistas e afetando negativamente o valor da firma. Estudos desta questão efetuados em outros países apresentaram resultados variados. Para a verificação empírica, utilizou-se de análise de dados em painel, realizada sobre uma amostra de 1.432 observações do tipo empresa-ano, composta por 310 companhias abertas negociadas em bolsa nos anos de 2007 a 2012. O valor da firma foi estimado pelo Q de Tobin e o planejamento tributário por duas métricas distintas, alternadamente: Book-Tax Differences, controlada por accruals, e total de tributos distribuídos na DVA, ambas padronizadas pelo ativo. Visando obter resultados robustos, a amostra foi estratificada em função da agressividade histórica das firmas quanto ao planejamento tributário. Os resultados mostram que existe uma relação negativa entre planejamento tributário e valor da firma no estrato das firmas mais agressivas, não tendo havido convergência de evidências no estrato das firmas menos agressivas. Em função das peculiaridades do mercado de capitais brasileiro, foram analisados também os efeitos da governança corporativa, da gestão familiar e da concentração acionária sobre a relação estudada. Os resultados mostram que estes fatores não conseguem conter a diminuição de valor ocorrida no estrato das firmas agressivas. A contribuição desta pesquisa para a literatura consiste na demonstração dos efeitos que os custos de agência exercem sobre as avaliações dos investidores no mercado de capitais e na evidenciação da relação negativa entre planejamento tributário e val
Planejamento tributário e valor da firma no mercado de cap ...
Santana, Silvio Luis Leite
favoritar152198
Resumo: Satisfação profissional é um fenômeno complexo e multivariado, vivenciado pelos indivíduos como um estado comportamental derivado de fontes internas e externas. Considerando o ambiente das Unidades de Terapia Intensiva (UTIs) como fontes geradoras de estímulos externos - positivos e negativos, é essencial uma investigação sistemática para examinar o nível de satisfação das enfermeiras de terapia intensiva em relação ao seu contexto de trabalho. Para atender a essa proposta, o objetivo desse estudo foi adaptar o Index of Work Satisfaction (IWS) - Índice de Satisfação Profissional (ISP) para a cultura das enfermeiras brasileiras de terapia intensiva e identificar seu nível de satisfação profissional. O ISP compreende uma escala de 44 ítens que mede o nível atual de satisfação profissional e comparações pareadas que medem a importância relativa de seis componentes de satisfação profissional: autonomia, interação, status profissional, requisitos do trabalho, normas organizacionais e remuneração. A estrutura metodológica que orientou o estudo baseou-se nas diretrizes de adaptação e validação transcultural de medidas, como propostas pela literatura. A abordagem metodológica compreendeu um comjunto de etapas padronizadas para atingir equivalência idiomática, cultural e conceitual, e para avaliar as propriedades psicométricas do instrumento adaptado, pelo uso de traduções, re-tradução, revisões por especialistas e testes estatísticos. A validade aparente e de conteúdo da versão traduzida do ISP foi analisada através dos julgamentos de especialistas, sustentando sua adequação. A amostra do estudo consistiu de 84 enfermeiras representando oito UTIs, que responderam a um questionário específico para o alcance dos objetivos. Os dados analisados nesse estudo foram provenientes de 70 questionários utilizáveis. A maioria das respondentes era do sexo feminino (90.0%). A idade média foi 30,42 anos e o tempo médio de experiência em UTIs foi de 5,49 anos. Após a eliminação de
Satisfação profissional entre enfermeiras de UTI: adaptaçã ...
Lino, Margarete Marques
favoritar150038
Resumo: Oidardis e um genero neotropical de pequenas moscas predadoras, distribuido em areas florestais da Costa Rica a Argentina. Ele inclui, ate agora: O. aenescens, O. aveledoi, O. curopaoensis, O. gibba, O. gibbosa, O. nigra, O. triangularis. Este estudo teve como objetivos: redescrever todas as especies conhecidas de Oidardis. descrever novas especies. elaborar uma chave de identificacao para todas as especies do genero. testar a monofilia de Oidardis. testar a validade das sinonimias assumido pelos autores antigos e recuperar as relacoes filogeneticas entre especies conhecidas de Oidardis. Um total de seis especies foram redescritas e ilustradas seis especies novas descritas e ilustradas. O. nigra e proposto como um novo sinonimo de O. triangularis.A analise de parcimonia foi realizada com 14 taxons internos (seis especies validas. seis especies ainda nao descritas. Eumecosoma tarsalis e E. shropshirei), quatro taxons como grupos externos (Ommatius orenoquensis Bigot, Perasis sp., Dissmeryngodes sp. e Strombocodia sp.). Considerou 79 caracteres morfologicos, incluindo de genitalia masculina. O material examinado foi obtido a partir de importantes museus e colecoes do mundo. A analise retornou uma hipotese mais parcimoniosa (L = 299, CI = 0,38, Ri = 0,42). A monofilia de Oidardis foi recuperada, com base na suave curvatura da margem lateral do olho, entre outras apomorfias. Os resultados preliminares mostram Eumecosoma como parafiletico em relacao a Oidardis, mas uma melhor amostragem do grupo e necessaria, antes de quaisquer mudancas nomenclaturais sejam realizadas. As sinoni mias previamente propostas no genero aparentemente estao corretas, com base na reconstrucao filogenetica. Dentro de Oidardis, alguns grupos bem apoiados foram recuperados com destaque para: O. sp. n. 6 como grupo- irmao de O. sp.n.2, devido a sua morfologia distinta de gibosidade facial e cerdas do mystax. Sua estreita relacao com O. aenescens, com base nas cerdas escutelares marginais mu
Revisão taxonômica e análise cladística de Oidardis Herman ...
Cezar, Lucas de Araujo
favoritar150266
Resumo: Na década de 90 surge a primeira tentativa de gerar dados capazes de legitimar um modelo climático mundial detalhado: O Experimento de Circulação Oceânica Global (World Ocean Circulation Experiment - WOCE) Dentro dos diversos subprogramas inseridos no WOCE destaca-se o programa Hidrográfico (WHP). A JAMSTEC (Japan Marine Science and Tecnology Center), após cerca de uma década volta a reocupar algumas estações do WHP-WOCE, com o programa BEAGLE (Blue Earth Global Expedition), tendo como proposta detectar e quantificar alterações correspondentes ao aquecimento global. A I Comissão Oceanográfica Trans-Atlântica (TAI 2009) também constituiu um projeto de reocupação da seção A10, linha central do Oceano Atlântico Sul (~30?S), previamente amostrada pelo WHP-WOCE e BEAGLE, tendo como objetivo identificar alterações espaciais e temporais dos parâmetros oceanográficos nas últimas duas décadas. Considerando os valores de temperatura e salinidade foi evidenciada a presença de pelo menos, cinco massas d´água: i) Água Tropical de Superfície (ATS) acima da isopícnal ?0= 26,70 ii) Água Central do Atlântico Sul (ACAS) abaixo da isopícnal ?1= 27,05 iii) Água Intermediária Antártica (AIA) abaixo da isopícnal ?2= 27,20 (iv) Água Profunda do Atlântico Norte (APAN) abaixo da isopícnal ?3= 27,70 v) Água Antártica de Fundo (AAF). Nas camadas superficiais dos três programas, notou-se uma proporcionalidade inversa entre as concentrações de nutrientes e oxigênio dissolvido. O Programa TAI ao longo de todo o transecto A10, apresentou as menores concentrações de nutrientes abaixo dos 1000 dbar. O WHP-WOCE foi mais aquecido que os outros programas nas camadas superficiais. Nas profundidades acima da termoclina (~1000 dbar), na bacia leste o Programa BEAGLE apresentou diferenciações que sugerem uma atividade mais intensa de ressurgência, para seu ano de amostragem do que nos anos dos Programas WHP-WOCE e TAI. Porém baseado nos resultados do Programa TAI, na extremidade leste da Bacia do
Estudo espaço-temporal da variação dos parâmetros físicos ...
Delfim, Ricardo
favoritar150226
Resumo: Geradores de referência, ou fontes de tensão de referência, são largamente empregados na composição de diversos circuitos eletrônicos, pois são responsáveis por gerar e manter uma tensão constante para o restante do circuito. Como se trata de um circuito analógico e que possui diversas condições a serem atendidas (baixo coeficiente de temperatura, baixa tensão de alimentação, baixa regulação de linha, dentre outras), sua complexidade é alta e isso se reflete no tempo/dificuldade de um projeto. Com a finalidade de aumentar a qualidade do circuito e diminuir o tempo de projeto, foi estudado o projeto de fontes de tensão de referência através da aplicação de metaheurísticas, que são métodos de otimização utilizados em problemas que não possuem solução analítica. As metaheurísticas aplicadas foram: algoritmos genéticos, simulated annealing e pattern search, todos disponíveis em uma toolbox de otimização do Matlab. A fonte projetada, utilizando uma topologia proposta neste trabalho, fornece uma tensão de referência de 0,302 V em 300 K a uma tensão mínima de operação de 1,01 V. O coeficiente de temperatura, no intervalo de -10°C a 90°C, é de 19 ppm/°C a 1,01 V e a regulação de linha, com tensão de alimentação no intervalo de 1,01 V a 2,5 V, é de 81 ppm/V a 300 K. O consumo de potência é de 4,2 ´mü´W, também em 300 K e a 1,01 V e a área é de 0,061 ´MM POT.2´. Como resultado, mostrou-se a eficiência da utilização destes métodos no dimensionamento de elementos do circuito escolhido e foi obtida uma fonte de tensão de referência que atende aos critérios estabelecidos e é superior quanto ao critério de regulação de linha, quando comparada a outras fontes da literatura. Neste trabalho, foi utilizada a tecnologia CMOS de 0,35 ´mü´m da Austria Micro Systems (AMS).
Projeto de fontes de tensão de referência através de metah ...
Sassi, Mariela Mayumi Franchini Sasaki
favoritar150265
Resumo: Este estudo teve o objetivo de aprofundar a descrição das variáveis responsáveis pela manutenção de respostas de observação (RO), em uma condição de reforçamento independente de resposta, que excluía economia-de-trabalho como variável determinante. O procedimento empregado foi o mesmo utilizado nos estudos de Blanchard (1975), com pombos, e de Schrier, Thompson e Spector (1980), com macacos, que revelaram resultados divergentes. Com o objetivo de entender esta divergência, refinaram-se o registro e a análise dos dados. Foram utilizados seis pombos privados de comida e uma caixa de condicionamento operante  com um disco de resposta controlada por equipamento eletromecânico. O procedimento básico consistiu em sessões compostas por tentativas discretas separadas por intervalos entre tentativas (IET). Em igual probabilidade de apresentação, metade das tentativas terminava com apresentação livre de comida  (TS+) e metade sem comida (TS-). Durante ambos os tipos de tentativas, a chave de resposta permanecia iluminada por luz branca, a não ser que ocorressem RO. Neste caso, a cor do disco era alterada de acordo com o tipo de tentativa em vigor. O esquema de ROera Vl15s para a produção de ambos S+ e S- nas condições de linha de base. Em duas condições experimentais diferentes, DRL6s foi superposto ao VI para a produção dos estímulos, S+ (condição VIDRLS+) ou S- (condição VIDRLS-),  enquanto o estímulo alternativo continuava sendo produzido em VI. Todos os sujeitos foram submetidos às duas condições, tendo a ordem de exposição invertida. Uma condição experimental foi sempre inserida entre duas condições de linha de base. Os resultados mostraram que RO foram mantidas em igual frequência, em ambos os tipos de tentativas, nas condições de linha de base. A contingência de DRL resultou em uma diminuição marcante na produção de S- mas não na de S+, para todos os sujeitos. Resultou, também, em aumento na taxa de respostas nas TS- se comparada com TS+. Este aumento reforça
Contingências determinantes da resposta de observação
Tomanari, Gerson Aparecido Yukio
favoritar150300
Resumo: Este trabalho apresenta uma ferramenta para a simulação de sistemas de comunicação utilizando modelos em alto nível para cada um dos blocos empregados. A ferramenta é baseada em modelos comportamentais de blocos de Radio Freqüência (RF), o que reduz custos, tempo de simulação e permite um rápido diagnóstico de problemas precoces no projeto de um sistema de comunicação sem fio. O desenvolvimento de blocos, como o LNA (Low Noise Amplifier), o MIXER, o LO (Oscillator Local) e o PA (Power Amplifier), facilita a implementação de qualquer arquitetura de Transmissão e de Recepção. Para isso foram levados em consideração efeitos de ruído, não linearidade e ganho no modelo dos blocos. Com isto se espera que a ferramenta ajude no projeto de circuitos integrados de um sistema de blocos em cascata, onde o usuário possa selecionar, configurar e simular o sistema. Na utilização da ferramenta é indispensável um conhecimento prévio das características e especificações em nível de sistema. Assim, se poderão fazer mudanças nos parâmetros de blocos, que permitirá então analisar compromissos existentes entre ruído, ganho e distorção do sinal através de todo o caminho, antes mesmo de se ter uma resposta definitiva. A ferramenta de simulação é implementada em Simulink, que é um pacote (toolbox) de Matlab, amplamente utilizado no desenvolvimento de algoritmos e blocos de comunicação. A interação e ambiente gráfico da ferramenta facilitam o uso pelas pessoas envolvidas direta e indiretamente com o projeto de circuitos. Finalmente, para verificar a ferramenta desenvolvida foi feito um estudo de caso, onde se modelou e simulou o padrão Bluetooth.
Ferramenta para modelagem de sistemas de comunicação.
Zapata, Catalina
favoritar150348
Resumo: INTRODUÇÃO: O papilomavírus humano (HPV) é o agente mais frequentemente encontrado em doenças sexualmente transmissíveis e é responsável por cerca de 40% dos cânceres vulvo-vaginais. Esse trabalho abordou a resposta imune em lesões vulvares, considerando-se as células dendríticas CD1a+, FXIIIa+ e S-100+, citocinas TNF-, IFN- e IL-10 e a molécula de adesão E-caderina. MÉTODOS: Foram utilizadas 49 lesões de vulva pelo HPV (condiloma acuminado, NIV-I, NIV-II e NIV-III) e 11 bióspias com diagnóstico de vulvite crônica inespecífica. Foram constituídos quatro grupos: lesões de baixo grau (condiloma e NIV I), lesões de alto grau (NIV II e III), vulvites inespecíficas e pele normal. A detecção das células, citocinas e E-caderina foi feita através de método imuno-histoquímico. RESULTADOS: As células de Langerhans (CD1a+) estavam distribuídas em todo o epitélio, sobretudo nas camadas suprabasal e espinhosa. Não diferiram entre os grupos de lesões HPV+, mas estavam diminuídas em número e tamanho quando comparadas à pele normal (p<0.0001). As células S-100+ ou FXIIIa+ estavam localizadas em toda a extensão do estroma, sem diferença estatística entre as lesões pelo HPV. Embora os DDFXIIIa+ estivessem aumentados em tamanho nas lesões de vulva, seu número não diferiu da pele normal. Não se observou diferenças numéricas das células S-100+ entre os grupos de lesão e pele normal. Foi possível detectar maior número de DDFXIIIa+ sobre as células S-100+ no grupo de lesões de baixo grau (p = 0,0008) e de alto grau (p = 0,0031). As citocinas foram detectadas em pequenas quantidades nos grupos de lesões, porém sem diferença estatística. Para a análise da expressão de e-caderina, o grupo de vulvites crônicas inespecíficas foi utilizado como controle. Em 91.0% das vulvites inespecíficas foi observado padrão homogêneo e difuso da expressão de e-caderina na camada espinhosa baixa e média. Ambos os grupos de lesões HPV+ exibiram padrões semelhantes de expressão de e-caderina, com marcaç
Estudo de células dendríticas, expressão das citocinas TNF ...
Pereira, Naiura Vieira
favoritar150378
Resumo: A coenzima Q10 é uma provitamina lipossolúvel sintetizada endogenamente e naturalmente encontrada em alimentos como a carne vermelha, peixes, cereais, brócolis e espinafre. É comercializada como suplemento alimentar e utilizada em formulações cosméticas. Localiza-se na membrana de organelas celulares como retículo endoplasmático, vesículas e membrana interna da mitocôndria, onde atua como um cofator essencial na cadeia respiratória. Apresenta propriedades antioxidantes e potencial no tratamento de doenças neurodegenerativas e neuromusculares. O objetivo deste trabalho foi investigar os possíveis efeitos protetores de uma formulação hidrossolúvel de coenzima Q10 em células PC12 expostas à cisplatina, um fármaco antineoplásico que tem a neurotoxicidade como um dos fatores limitantes à sua utilização. A linhagem celular PC12 (feocromocitoma de ratos) utilizada nesta investigação é um reconhecido modelo in vitro para estudos neuronais. Os métodos empregados foram os ensaios do MTT, cometa, citoma micronúcleo com bloqueio da citocinese, crescimento de neuritos e análise da expressão do gene Tp53. Os resultados obtidos na avaliação da citotoxicidade da coenzima Q10 (0,1 - 20 µg/mL) mostraram que este antioxidante foi citotóxico às células PC12 na concentração de 20,0 µg/mL e não apresentou citotoxicidade em baixas concentrações. Para os ensaios do citoma e cometa, foram selecionadas três concentrações não citotóxicas de coenzima Q10 (0,1. 0,5 e 1,0 µg/mL) que não apresentaram mutagenicidade e genotoxicidade às células PC12. O efeito protetor da coenzima Q10 sobre a cisplatina no ensaio do citoma foi caracterizado pela diminuição da freqüência de micronúcleos e brotos nucleares, entretanto a proteção da coenzima Q10 não foi evidenciada no ensaio cometa. Alterações significativas na expressão do gene Tp53 não foram observadas no tratamento coenzima Q10 (1,0 µg/mL) associado à cisplatina (0,1 µg/mL). A coenzima Q10 (0,1 e 1,0 µg/mL) não foi neurotóxica em células PC1
Possíveis efeitos citoprotetores do antioxidante da dieta ...
Machado, Carla da Silva
favoritar150349
Resumo: Limitadores de corrente supercondutores resistivos (LCSR) são dispositivos com características elétricas próximas ao ideal quando ocorre a transição do estado supercondutor para o estado normal, limitando a corrente de falta através da inserção rápida de uma resistência na rede. A viabilidade técnica e econômica destes limitadores aumentou após o desenvolvimento dos supercondutores de alta temperatura crítica HTS. A primeira geração de fitas HTS (BSCCO) consiste em multifilamentos de material supercondutor embutidos em uma matriz de prata. A densidade de corrente crítica típica é de aproximadamente 140 A/mm2. Contudo, a resistência alcançada pelo LCSR quando atinge o estado normal não é suficiente para limitar a corrente de falta, sendo necessários longos comprimentos de fitas (~5 km) para que a corrente seja limitada. O recente desenvolvimento de fitas supercondutoras de YBCO com filmes finos texturizados e com substrato de alta resistividade superou o desempenho das fitas de BSCCO para esta aplicação. Com uma densidade de corrente crítica de 136 A/mm2, as fitas de YBCO são bem conhecidas pelo seu alto valor de índice n (aproximadamente 30), rápida resposta de transição após falta e alta resistência elétrica no estado normal. Neste trabalho foram analisados o comportamento elétrico e magnético das fitas de BSCCO e YBCO (em amostras curtas de 0,2 m) utilizando diferentes técnicas de caracterização das propriedades das fitas HTS. A partir destes resultados, medidas com pulsos de corrente DC e AC com intensidades de 3 a 7 vezes a corrente crítica do sistema (I=720 A a 1700 A) com duração de 1 a 5 ciclos da rede em 60 Hz (16 a 80 ms) foram realizados de forma a obter as características do tempo de recuperação em um elemento contendo 4 fitas em paralelo (0,4 m). Os resultados permitiram o projeto, construção e medidas em corrente AC de um protótipo LCSR (Ipico = 2 kA) contendo 16 elementos sob condições normais de operação da rede (220 V - 60 Hz).
Projeto e construção de limitador de corrente superconduto ...
Lamas, Jérika Suely
favoritar150376
Resumo: Hipólito José da Costa Pereira Furtado de Mendonça é considerado o primeiro jornalista brasileiro. Ao lançar em Londres, em 1º de junho de 1808, o Correio Braziliense ou Armazém Literário, também fundou a imprensa política em língua portuguesa. Seu periódico, que circulou todos os meses de junho de 1808 a dezembro de 1822, foi objeto de vários historiadores e comentaristas. Sua inserção nos quadros da maçonaria e a conseqüente passagem pelos cárceres da Inquisição, em Lisboa, também receberam alguma atenção de nossa historiografia. Contudo, a viagem que empreendeu em sua juventude à América do Norte ainda é tema praticamente inexplorado. Tratava-se de uma missão oficial, inserida no contexto de um ambicioso projeto desenvolvido pela Coroa portuguesa nas últimas décadas do século XVIII, com o intuito de modernizar a economia colonial. Ali o jovem naturalista deveria investigar inovações e adquirir conhecimentos úteis à diversificação da agricultura no Brasil. Agente desta política de Estado, Hipólito da Costa chegou aos Estados Unidos aos 24 anos de idade, em dezembro de 1798. Lá permaneceria até fins de 1800, registrando os percalços da missão e suas impressões sobre a jovem nação norte-americana em seu Diário da minha Viagem para Filadélfia. Este trabalho é uma tentativa de interpretar as representações que ele construiu sobre os Estados Unidos em seu diário de viagem, tendo este documento como base principal, mas não exclusiva. Também são utilizados textos que ele escreveu durante sua permanência na América do Norte e ainda escritos de sua maturidade, publicados no período de seu exílio em Londres. Ao cotejar estes escritos, a pesquisa segue a assertiva de que a viagem aos Estados Unidos foi um marco importante na trajetória de Hipólito da Costa e as idéias com as quais conviveu ali uma das matrizes de sua escrita e de seu pensamento político.
O Diário da minha viagem para Filadélfia: impressões de um ...
Buvalovas, Thais Helena dos Santos
favoritar150203
Resumo: A intensa competição no mercado global e as constantes mudanças nas exigências dos clientes têm feito com que muitas empresas repensem seus processos de negócios não somente para sobreviver, mas também para se manterem competitivas no mercado atual. O processo de desenvolvimento de produtos é um fator importante para qualquer empresa se manter competitiva neste cenário. A falta de um bom processo de desenvolvimento de produtos é sem dúvida uma grande desvantagem para uma empresa. Somente um bom processo de desenvolvimento não garante a vantagem competitiva das empresas, é necessário também que seus produtos sejam confiáveis e para que isto aconteça torna-se essencial desenvolver produtos com qualidade, através do uso disciplinado e constante de ferramentas de qualidade. Para ser competitivo um produto precisa ser desenvolvido com o mínimo de tempo, recursos e custo, para atender às necessidades de mercado. Algumas metodologias foram desenvolvidas e estas focam no desenvolvimento de um produto sempre pensando nas necessidades da manufatura, montagem, qualidade, confiabilidade e ciclo de vida do produto, evitando mudanças tardias no produto. Muitos estudos acadêmicos e industriais têm sido propostos nesta área. Cada empresa deve encontrar e se adaptar ao processo ou modelo mais adequado para ela dentro das suas necessidades técnicas e culturais. Este estudo apresenta uma metodologia a ser usada para melhorar a qualidade do produto e deve ser usada quando da fase conceitual onde se escolhem os melhores sistemas e/ou componentes para formar um novo produto final.
Desenvolvimento de novos produtos considerando aspectos de ...
Murad, Carlos Alberto
favoritar150048
Resumo: O mundo é moldado pela tecnologia: computadores, celulares, internet e vários outros equipamentos são responsáveis por mudanças nos hábitos de milhões de pessoas. Além disso, o conhecimento científico atual nos apresenta um Universo gigantesco e rico em figuras quase mitológicas, como aglomerados estelares e galácticos, expansão do espaço-tempo e um surgimento universal cataclísmico. E, no núcleo de todas estas inovações e informações, se encontra o conhecimento que chamamos de Física Moderna e Contemporânea. Seria de se esperar que o ensino de Física na escola média estivesse recheado de assuntos desta natureza, auxiliando os educandos a explorar e interpretar o mundo em que vivem e entender a ciência envolvida por trás destes equipamentos e descobertas. Porém, tais conteúdos ainda são a minoria dos tópicos abordados nesta disciplina. Este trabalho se insere neste contexto, procurando colaborar com a incorporação de conteúdos de Física Moderna e Contemporânea no ensino médio, através da apresentação do processo de construção de uma proposta curricular de Física diferenciada, aplicada a partir do ano de 2006 em uma escola particular paulistana. Nele explora-se o desenvolvimento e a aplicação da proposta que introduziu alguns tópicos de Astrofísica e Cosmologia no segundo semestre do curso da 1ª série do ensino médio da escola no ano de 2008. Observou-se, através de técnicas da Análise de Conteúdo, a aprendizagem de conceitos e a apropriação de certos elementos entendidos como fundamentais na proposta: alterações na visão dos educandos sobre o mundo e sobre o conhecimento físico. Percebeu-se, ainda, que alguns deles traçam correlações entre os conceitos ensinados e situações de seu cotidiano, apontando para uma experiência de ensino significativa.
Tópícos de Astrofísica e Cosmologia: uma aplicação de Físi ...
Aguiar, Ricardo Rechi
favoritar152199
Resumo: Este estudo realizou a revisão sistemática em cirurgia bariátrica com os objetivos de identificar os principais cuidados de enfermagem no pós-operatório desta cirurgia e elaborar recomendações de enfermagem para a assistência prestada ao paciente bariátrico. A questão de pesquisa foi: Quais os cuidados de enfermagem no pós-operatório da cirurgia bariátrica e sua importância para a recuperação do paciente? Foram previamente identificados 1483 estudos, sendo selecionados 123, onde a amostra final foi de 18 incluídos, publicados em periódicos científicos indexados no LILACS, SCIELO, PUBMED, EMBASE, MEDLINE e Cochrane Library, desses 05(27,7%) abordavam os aspectos respiratórios, 03(16,6%) destacaram a comparação do pós-operatório de cirurgia aberta versus laparoscópica, 02(11,1%) sobre orientação/ educação multidisciplinar do paciente, 02(11,1%) sobre aspectos perioperatórios, 02(11,1%) sobre trombose e tromboembolismo pulmonar no pós-operatório, 02(11,1%) sobre cuidados anestésicos, 01(5,5%) abordava a dieta pós-operatória. Para a análise e avaliação dos estudos selecionados utilizou-se os seguintes itens: tipo de estudo/ escopo/ população/ coleta de dados/ resultados/ conclusão. Os resultados mostraram que a maioria dos estudos encontrados são do tipo prospectivo(55,6%), (44,4%) retrospectivo, sendo 100% quantitativos. Foram estudos realizados por médicos cirurgiões ou anestesistas, atuantes na área de cirurgia bariátrica, evidenciando a escassez de trabalhos realizados pela enfermagem tanto no Brasil, como em outros países.Com base nos estudos e na experiência com a assistência prestada ao paciente, foram elaboradas diretrizes de cuidados referentes aos sistemas respiratório, neurológico, urinário, e cuidados especiais quanto à dor, pele, dieta e prevenção de trombose.
Cirurgia bariátrica: revisão sistemática e cuidados de enf ...
Negrão, Renata de Jesus da Silva
favoritar152136
Resumo: A doença decorrente da infecção por Salmonella é um dos maiores problemas de saúde no mundo em termos de morbidade e mortalidade. Entre as sorovariedades de Salmonella, a sorovariedade Enteritidis é a de maior ocorrência mundial e compreende linhagens que tem seu nicho biológico relacionado a frangos e ovos. Várias metodologias de tipagem fenotípicas e genotípicas foram desenvolvidas a fim de se delinear a epidemiologia das infecções por S. Enteritidis. Entretanto a tipagem fenotípica usualmente falha em discriminar linhagens relacionadas das nãorelacionadas epidemiologicamente e apresenta problemas de reprodutibilidade que foram minimizados com a utilização de métodos genotípicos. No Brasil, poucos estudos que utilizaram técnicas moleculares na tipagem de linhagens dessa sorovariedade foram realizados. Os objetivos desse estudo foram investigar o potencial patogênico, a resistência a antimicrobianos e realizar a tipagem molecular de linhagens de Salmonella Enteritidis isoladas de humanos, de alimentos e de frangos no Brasil. Para isso foram estudadas 188 linhagens de Salmonella Enteritidis isoladas de surtos e de casos esporádicos, de humanos (67) de alimentos (61) e de frangos (60), durante o período de 1986 a 2010, de vários locais do Brasil. A susceptibilidade frente a 14 antimicrobianos foi analisada através da técnica de disco difusão e a presença de 13 genes de virulência das ilhas de patogenicidade de Salmonella I e II e do plasmídio pSEV foram pesquisados por PCR. Os mecanismos de resistência a quinolonas foram verificados através da pesquisa de genes de resistência plasmidiais e cromossomais e também através da verificação de mutações no gene gyrA por High resolution melting analysis (HRMA) seguida de sequenciamento de algumas linhagens. As linhagens também foram tipadas molecularmente pelas metodologias Enterobacterial Repetitive Intergenic Consensus PCR (ERIC-PCR), Pulsed-field gel electrophoresis (PFGE) com a enzima XbaI, Multilocus variable-num
Tipagem molecular e análise da diversidade genética de lin ...
Campioni, Fábio
favoritar150325
Resumo: As escalas de risco cirúrgico pretendem identificar pacientes de alto risco para complicações cardiovasculares no pós-operatório. As escalas de Goldman e da Sociedade Americana de Anestesia, que não consideram a cardiopatia chagásica e suas peculiaridades, são as mais utilizadas em nosso meio. O objetivo do estudo foi analisar o risco cirúrgico do paciente portador de megaesôfago chagásico e correlacionar esse risco com o grau de dilatação do órgão. Foram analisados 124 pacientes, sendo 68 (54,83%) do sexo masculino e 56(45,16%) do sexo feminino, portadores de megaesôfago chagásico, operados no Hospital das Clínicas da Universidade Federal de Goiás no período de janeiro de 1995 a dezembro de 2000. A média de idade foi de 39 anos. Todos os pacientes foram submetidos a: 1) anamnese para definição da classe funcional cardíaca (NYHA). 2) radiografia de tórax para avaliar área cardíaca. 3) eletrocardiograma convencional de repouso em 12 derivações e 4) estudo contrastado do esôfago Todos os pacientes foram submetidos a tratamento cirúrgico do megaesôfago chagásico. Foram analisadas as complicações pós-operatórias diretamente relacionadas ao aparelho cardiovascular na fase de internação hospitalar. A classificação funcional (Cf) da insuficiência cardíaca dos pacientes portadores de megaesôfago chagásico no 15 período pré-operatório mostrou que 67 pacientes (54,03%) estavam na classe funcional I (Cf I), 46 pacientes (37,09%) na classe Funcional II (Cf II) e 11 pacientes (8,87%) em Classe Funcional III (Cf III). Nenhum paciente estava em classe funcional IV (Cf IV). Em relação ao eletrocardiograma, observamos os seguintes resultados (n= 124): eletrocardiograma normal em 44 pacientes (35,48%). extrassístoles ventriculares isoladas em 58 pacientes (37,09%). bloqueio completo de ramo direito (BCRD) em 35 pacientes (28,22%). alteração primária da repolarização ventricular em 12 pacientes (9,67%). bloqueio atrioventricular do primeiro grau (BAV 1.º grau) em 16 pacientes
Avaliação do risco cirúrgico no paciente portador de megae ...
Garcia Neto, José
favoritar150326
Resumo: A resistência aos carbapenêmicos em amostras de Pseudomonas aeruginosa e Acinetobacter spp aumentou na última década. Vários surtos causados por esses agentes já foram descritos no Brasil. O presente estudo comparou métodos fenotípicos de triagem de carbapenemase em P. aeruginosa e Acinetobacter spp. isolados de hemoculturas de pacientes internados no HC-FMUSP. Foram estudados 108 isolados de P. aeruginosa identificados por sistema automatizado Vitek® e 50 isolados Acinetobacter spp. identificados pelo método miniaturizado API20NE. A determinação inibitória mínima dos carbapenêmicos foi realizada pela técnica de microdiluição em caldo e a tipagem molecular pela técnica de eletroforese em campo pulsado (PFGE). Os genes codificadores de carbapenemase foram identificados por meio da técnica de reação em cadeia da polimerase (PCR) e foi avaliada a hidrólise de imipenem de todos os isolados positivos para esses genes. Sensibilidade, especificidade, valor preditivo negativo e positivo dos testes fenotípicos foram calculados usando como padrão-ouro a detecção dos genes codificadores das carbapenemases por PCR. Nos isolados de Acinetobacter spp, foram pesquisados os genes das oxacilinases, dos quais quarenta e nove (98%) apresentaram pela técnica de PCR genes codificadores da enzima Oxa-51-like, sendo que um isolado não apresentou essa enzima e após sequenciamento do gene codificador da porção 16S do RNA ribossomal, foi considerado da espécie A. calcoaceticus. Em trinta e oito (76%) dos isolados foi detectado o gene blaOXA-143, em nove (18%) foi detectado o gene blaOXA-23, sendo que sete desses isolados pertenciam ao mesmo clone. Apenas cinco (10%) isolados de Acinetobacter spp apresentaram o gene blaIMP-1. Para os isolados de P. aeruginosa o gene blaSPM-1 foi o mais frequente sendo identificado em vinte e um (19,4%) dos isolados e quatro (3,7%) foi identificado com o gene blaVIM-2. Nove dos vinte e um isolados positivo para gene blaSPM-1, apresentaram a mesma clona
Detecção fenotípica e genotípica de carbapenemases em isol ...
Fung, Liang
favoritar150375
Resumo: Neste trabalho, utilizou-se a técnica de decaimento de fluorescência resolvida no tempo para estudar a dinâmica agregação intra-polimérica do [3,22]-ioneno e da interação destes agregados com co-íons e contra-íons. Brometo de [3,22]-ioneno apresenta supressão intra-polimérica da sonda fluorescente pireno, eliminada pela quaternização dos grupos amino terminais com cloreto de benzila e pela troca do contra-íon Br<sup>-</sup> por Cl<sup>-</sup>, obtendo-se o cloreto de NT-benzil-[3,22]-ioneno, viabilizando a realização de medidas fotofísicas. Medidas da dinâmica de formação de excímeros de pireno e seus derivados evidenciaram que, em contraste às micelas de cloreto de hexadeciltrimetilamônio, os agregados formados por NT-benzil-[3,22]-ioneno participam de um eficiente processo intra-polimérico de fusão/fissão que facilita a migração de sondas e supressores durante o tempo de vida da sonda excitada. A existência deste processo de migração intra-polimérica requer a presença de vários microdomínios ao longo da cadeia do ioneno. Medidas em temperaturas baixas (<.15°C), onde o processo de fusão/fissão intrapolimérica torna-se mais lento que a supressão, forneceram uma estimativa do número de agregação dos microdomínios de 20,5. A constante de velocidade do processo de fusão/fissão (kfus) foi estimada a partir do estudo da dinâmica da formação de excímeros de pireno e derivados. Os dados para a dinâmica de saída de co-íons e de contra-íons supressores dos microdomínios de NTbenzil-[3,22]-ioneno foram tratados, levando em conta os dois mecanismos de migração, ou seja, pela fase aquosa e facilitada pelo processo de fusão/fissão. As constantes de velocidade de saída e de supressão para os microdomínios de NT-benzil-[3,22]-ioneno e micelas de CTAC1 apresentam dependências similares com o aumento da concentração de sal comum adicionado.
Estudo da migração de sondas e supressores em policátions ...
Tcacenco, Celize Maia
favoritar150316
Resumo: A renovação da outorga que permite reverter as águas das bacias dos rios Piracicaba, Capivari e Jundiaí (PCJ) para abastecer a Região Metropolitana de São Paulo através do Sistema Cantareira constituiu um importante momento de decisão sobre a gestão dos recursos hídricos. Diante disso e do processo de descentralização na gestão das águas, possibilitando a ação de diversos atores, com a instituição do Sistema Integrado de Gerenciamento de Recursos Hídricos em São Paulo (SIGRH), existe a necessidade de conciliação de interesses, de cooperação entre os atores e de negociação de conflitos. Este trabalho pretendeu analisar como a existência de um histórico de cooperação entre os membros dos Comitês das Bacias PCJ contribuiu para o fortalecimento da sua capacidade de negociação no processo de renovação da outorga do Sistema Cantareira. Para tanto, a pesquisa contou com a aplicação de um questionário fechado junto aos membros dos Comitês PCJ, que permitiu observar a existência de cooperação entre eles e de outros elementos que constituem o conceito de capital social. Percebeu-se que os Comitês PCJ possuem uma estrutura de organização que possibilita um desempenho satisfatório na tomada de decisões, na mobilização de recursos, na facilidade de comunicação e na solução de conflitos. Verificou-se que entre os seus membros existem relações consistentes de cooperação, confiança, solidariedade e reciprocidade, através das quais foram construídos arranjos institucionais nesses Comitês para resolver problemas relacionados à gestão dos recursos hídricos, como foi o caso da renovação da outorga do Sistema Cantareira. Com a nova outorga, a operação do Sistema passou a ser descentralizada e transparente. Todo esse processo contribuiu para que o capital social existente entre os atores envolvidos na gestão das águas se desenvolvesse e fortalecesse os seus laços. Também contribuiu para o amadurecimento técnico e político dos Comitês PCJ, para sua capacidade de negociar o recurso
Capital social e ação coletiva na gestão das bacias dos ri ...
Barbi, Fabiana
favoritar150317
Resumo: A dexametasona (DEXA) é um potente agente imunossupressor e antiinflamatório, mas apresenta importantes efeitos colaterais, tais como a atrofia muscular e a resistência à ação da insulina nos músculos esqueléticos. Neste contexto, a suplementação com leucina poderia representar uma estratégia nutricional terapêutica capaz de limitar os efeitos colaterais do tratamento com DEXA. Neste estudo, foram investigados os efeitos da suplementação com leucina em baixas e altas doses sobre a massa muscular, força muscular, assim como vários marcadores metabólicos que estão sob controle da insulina em ratos com restrição calórica e em ratos tratados com DEXA. Como a resposta da suplementação com leucina pode também estar ligada à forma de administração desse aminoácido, realizamos experimentos com leucina administradas via gavagem (bolus) versus leucina diluída no bebedouro dos animais. A suplementação com leucina demonstrou preservar a massa muscular, a força muscular voluntária média e a homeostasia da glicose em animais sob restrição calórica, mas este efeito foi observado apenas com a leucina suplementada em baixas concentrações/doses. Este efeito da leucina sobre a massa muscular esteve associado com a expressão de genes envolvidos no remodelamento da musculatura esquelética. Quanto ao efeito da leucina sobre a homeostasia da glicose, um efeito benéfico do aminoácido foi observado com a suplementação em baixas doses, o qual foi evidenciado pelos dados metabólicos avaliados. No entanto, sob tratamento com DEXA, a suplementação com leucina agravou o estado diabetogênico dos animais. Por último, a via de administração da leucina influenciou significativamente a resposta a este aminoácido, onde a suplementação via gavagem mostrou-se menos prejudicial do que a suplementação com leucina diluída nos bebedouros, ao menos em relação ao aspecto diabetogênico causado pelo tratamento concomitante com DEXA
Efeito da suplementação com leucina sobre a resposta atróf ...
Zanchi, Nelo Eidy
favoritar150213
Resumo: Fondue de chocolate é um produto derivado de chocolate consumido fundido com frutas e bolos sob aquecimento. É crescente o interesse dos consumidores em alimentos que tragam algum tipo de benefício à saúde. Óleo de castanha do Brasil, aveia e ácido graxo ômega-3 são alguns dos ingredientes funcionais mais comentados da atualidade. Assim, o objetivo desse trabalho foi desenvolver formulações enriquecidas desses ingredientes e avaliar a reologia, através de análises de textura, comparando-as com os produtos de mercado. Avaliou-se a textura, com probe back extrusion, avaliando-se os resultados através da equação Herschel-Bulkley, e por análise de consistência. O resultado da composição centesimal indicou que três (das seis) formulações apresentaram alto conteúdo de proteína bruta, comparado às amostras comerciais. As amostras enriquecidas com aveia apresentaram alto teor de fibra total e mostraram-se bons substitutos para a gordura do leite e sacarose. Na avaliação de textura por back extrusion, dentre as amostras comerciais, a amostra contendo leite condensado e chocolate amargo apresentou os maiores valores para os parâmetros de firmeza, coeficiente de consistência, coesividade e índice de viscosidade. Os fondues foram classificados como fluidos pseudoplásticos (n < 0) e os chocolates do tipo cobertura, fluidos dilatantes (n > 1). O ponto de fluidez foi semelhante para todas as amostras. O resultado do ensaio back extrusion para as formulações apontou que as amostras que contêm extrato de aveia apresentaram valores bem mais baixos frente às outras formulações. A avaliação da consistência revelou que a 10 ºC a amostra D apresenta bom potencial para aplicação como spread. enquanto à 20 ºC, as amostras C e D são as que apresentam melhor potencial. Assim, sugeriu-se a qualidade superior dos produtos desenvolvidos frente aos comerciais, que contêm estabilizantes e espessantes artificiais, bem como prolongada vida de pratel
Desenvolvimento e caracterização reológica de formulações ...
Gonçalves, Estela Vidal
favoritar152137
Resumo: O presente trabalho objetivou demonstrar a potencialidade dos métodos Rb-Sr, K-Ar, Pb-Pb e U-Pb quando aplicados aos trabalhos básicos de levantamento geológico, permitindo através dos diferentes valores interpretativos dessas metodologias contribuir para o entendimento dos processos tectônicos desenvolvidos na borda sudeste do Craton do São Francisco (nordeste de Minas Gerais e parte sul da Bahia). O acervo radiométrico processado representa uma ampla amostragem dos vários domínios litológicos caracterizados, contando com cerca de 230 determinações geocronológicas. O padrão de distribuição das idades radiométricas em conjunto com as informações provenientes de outros campos das geociências permitiu compartimentar a área em dois domínios geocronológicos maiores: o domínio brasiliano externo (ocidental) e o domínio brasiliano interno (centro-oriental). No domínio brasiliano externo expõem-se os metassedimentos de baixo grau metamórfico (facies xisto-verde, zonas da clorita e biotita) da faixa Araçuaí, tipificados principalmente pelos metadiamictitos do Grupo Macaúbas. Tem ainda como representantes os metassedimentos do sistema Espinhaço, claramente envolvidos pela tectônica brasiliana, além das rochas gnáissicas-migmatíticas da estrutura anticlinorial de Itacambira-Barrocão, retrometamorfisadas neste período. Os dados isotópicos Rb-Sr e Pb-Pb disponíveis para a unidade gnáissica-migmatítica deste setor indicam geração de rochas no Arqueano (´APROXIMADAMENTE´ 2700 Ma.) e Proterozóico Inferior (´APROXIMADAMENTE´ 2100 Ma.). Os parâmetros ´(´Sr  POT. 87´/´Sr POT. 86´) IND. i´ e ´´mü´ IND. 1´ sugerem, adicionalmente, para as rochas analisadas uma origem por retrabalhamento de materiais com vida crustal anterior. Os dados K-Ar (além de uma única datação por traços de fissão) possibilitaram delinear a história termal do domínio, sugerindo uma tectônica vertical, terminal ao ciclo Brasiliano, que colocou lado a lado, blocos formados em diferentes profundidades. O cic
A evolução Geotectônica da porção nordeste de Minas Gerais ...
Siga Junior, Oswaldo
favoritar150386
Resumo: O proteassomo é o componente do sistema Ubiquitina-Proteassomo (UPS), responsável pela degradação de proteínas intracelulares marcadas com cauda de ubiquitina. No entanto, a unidade catalítica do proteassomo (20SPT), destituída de unidades regulatórias, é capaz de degradar proteínas de maneira ubiquitina-independente. Diversas modificações pós-traducionais já foram descritas para o 20SPT, incluindo a S-glutatiolação. De acordo com Demasi e col., (2003) o 20SPT da levedura Saccharomyces cerevisiae possui a atividade tipo-quimiotripsina modulada por glutationa e o mecanismo de glutatiolação implica na formação do intermediário ácido sulfênico. No presente trabalho, identificamos por espectrometria de massas (MS/MS) um total de sete resíduos diferentes de cisteína glutatiolados no 20SPT, sendo seis in vitro por incubação com GSH e três in vivo, extraído de células crescidas até atingir fase estacionária tardia em meio rico. Analisando a estrutura 3D do 20SPT, observou-se que os resíduos de cisteína glutatiolados não estão localizados na entrada da câmara catalítica nem próximos aos sítios-ativos, indicando um mecanismo alostérico da modulação da atividade proteassomal. O proteassomo glutatiolado extraído de leveduras é capaz de degradar proteínas oxidadas de maneira mais eficiente que o proteassomo reduzido por DTT, e ainda, esta degradação gera perfis peptídicos diferenciados por utilizar distintamente as atividades sítio-especificas, como visualizado por análises de HPLC e MS/MS. Por microscopia eletrônica verificamos a conformação aberta da câmara catalítica do proteassomo glutatiolado, sendo esta imediatamente fechada pela remoção da glutationa do 20SPT na presença de DTT. Caracterizamos ainda, enzimas reponsáveis pela desglutatiolação do 20SPT, capazes de recuperar as atividades proteassomais que haviam sido diminuídas pela glutatiolação: as oxidoredutases glutarredoxina 2 e as tiorredoxinas citosólicas. O mecanismo ainda inclui a hidrólise dessas oxidorre
Estudo e caracterização do processo de glutatiolação e des ...
Silva, Gustavo Monteiro
favoritar150004
Resumo: As Boas Práticas de Fabricação de Medicamentos (BPFM) enfatizam que a indústria farmacêutica deve dirigir seus esforços no sentido de compreender a variação do processo, incluindo as fontes, o grau de variação e o impacto dessa variação nas características de qualidade do produto. O processo de fabricação de medicamentos tem apresentado significativas mudanças, em especial no que se refere à introdução de tecnologias analíticas que permitem o controle do processo em tempo real. A abordagem baseada na análise de risco e no novo Sistema de Qualidade Farmacêutica constitui ponto central das BPFM para o século XXI. Os órgãos regulatórios têm exigido da indústria farmacêutica sua adesão na melhoria contínua relativa ao desempenho de seus processos e, por consequência, na qualidade do produto. O objetivo do presente trabalho foi o desenvolvimento e validação de método analítico empregando espectroscopia no infravermelho próximo, assim como a avaliação do processo de fabricação de comprimidos de Captopril 25 mg, empregando abordagem racional-científica. Com referência à avaliação do processo, foram adotadas as seguintes ferramentas: análise de modos e efeitos de falhas (FMEA). gráficos de controle. índices de capacidade e análise de variância (ANOVA). A espectroscopia por infravermelho próximo (NIR) foi selecionada por apresentar maior rapidez na obtenção dos resultados, maior simplicidade na preparação das amostras, multiplicidade das análises a partir de uma única leitura e por apresentar característica não invasiva. Os resultados comprovaram a adequação dessa tecnologia na avaliação quantitativa do Captopril nas etapas de mistura de pós e de compressão. Os desvios padrão relativos na determinação da uniformidade de Captopril na mistura de pós e nos comprimidos empregando método no NIR foram, respectivamente 3,15 e 0,18%. No que se refere à avaliação da estabilidade e da capacidade do processo, as ferramentas adotadas permitiram a compreensão das fontes de variab
Avaliação do processo de fabricação de comprimidos de Capt ...
Curtivo, Cátia Panizzon Dal
favoritar150351
Resumo: Os modelos moleculares são construídos com base na caracterização da composição do petróleo, que consiste em conhecer informações moleculares detalhadas com o objetivo de identificar os compostos presentes. Este trabalho tem como objetivo construir um banco de dados para a classificação de componentes constituintes de asfaltenos em grupos moleculares. A classificação é feita através da semelhança entre suas massas moleculares em grupos de séries homólogas. Tal classificação é feita por meio da utilização dos dados provenientes da análise de espectrometria de massa e de um algoritmo de busca em linguagem VBA (Visual Basic for Applications), com o objetivo de identificar uma molécula específica em um conjunto de moléculas conhecidas (banco de dados). O método proposto nesse trabalho é baseado na classificação dos compostos através de suas massas moleculares, isto é, os compostos presentes em uma mistura são separados em classes por uma diferença de massa tão pequena quanto se queira. Pode-se, assim, observar a que grupo de moléculas um composto de petróleo pertence por meio de sua massa molecular. Como o banco de dados foi gerado por compostos cuja composição é conhecida, sabe-se que composição um dado composto terá entre as possíveis composições. Para gerar moléculas baseado no conhecimento da composição de petróleo, usam-se as fórmulas gerais dos compostos orgânicos que são formados por séries homólogas. Séries homólogas são séries de compostos orgânicos com propriedades químicas similares cujos componentes diferem entre si por uma massa molecular relativa constante (CH2). Tais séries são geradas e seus pesos moleculares são calculados e armazenados juntamente com suas fórmulas moleculares, em ordem crescente de massa, podendo assim, gerar os grupos moleculares com o auxílio de uma rotina computacional em linguagem VBA.
Identificação de componentes de frações de petróleo atravé ...
Vilas, Tatiane Gercina de
favoritar150352
Resumo: Mais do que qualquer outra figura de linguagem, a metáfora tem recebido a atenção de diversos pensadores desde Aristóteles, na direção de ampliar suas características e funções. A teoria interacionista da metáfora teve o mérito de elevar a metáfora da função decorativa e periférica na linguagem à função cognitiva e estruturante do pensamento. Essa dimensão essencialmente cognitiva da metáfora foi incorporada progressivamente à ciência por meio do uso das analogias, metáforas e modelos na produção do conhecimento. É essa via epistemológica aberta pela metáfora que nos permite revisitar a Psicanálise e o lugar da metáfora no interior desse conhecimento. Nossa pesquisa se propôs a realizar um estudo sobre a metáfora na obra de Jacques Lacan. Estudo que se deu em duas vertentes, justificadas pelo duplo papel da metáfora na teoria psicanalítica lacaniana. De um lado, tratamos de um uso que podemos denominar de epistemológico, ou seja, a forma como a metáfora foi utilizada para construir conhecimento a partir de duas metáforas lacanianas: as metáforas ópticas e o conto de Edgar Allan Poe A carta roubada. Observamos que, embora nem sempre os termos das metáforas analisadas mantenham uma correspondência biunívoca, elas apresentam forte ressonância, vista a grande quantidade de desdobramentos teóricos possibilitados por este instrumento. Concluímos que as metáforas lacanianas funcionam em um contexto de invenção do conhecimento e servem como um filtro, um anteparo a partir do qual os fenômenos do inconsciente são analisados. O segundo objetivo de nossa pesquisa é descobrir qual a teoria da metáfora de Lacan, em virtude da importância que essa noção adquire em sua teoria  fundamentando um dos mecanismos do inconsciente. Concluímos que Lacan, para dar conta das questões próprias da Psicanálise, desenvolve uma nova teoria da metáfora, a qual se distingue das teorias clássicas
Desvendando Lacan: duas metáforas e uma teoria psicanalíti ...
Imanishi, Helena Amstalden
favoritar150286
Resumo: Na última década, em função do rápido desenvolvimento tecnológico e da obsolescência precoce de produtos eletroeletrônicos, cuja composição contém em sua maioria substâncias tóxicas, tem-se observado o crescimento de legislações ambientais que responsabilizam os fabricantes pela destinação ambientalmente adequada desses produtos descartados pela sociedade. No Brasil, destaca-se a Resolução CONAMA n. 401, que disciplina o descarte de baterias e pilhas, da qual se inclui a bateria de telefone celular. Diante deste contexto, as empresas, enquadradas nessas legislações ambientais, passam a lidar com aumentos de custos decorrentes da conformidade com tais exigências ambientais, conforme literatura pesquisada. Nesse sentido, o objetivo desta pesquisa foi investigar os custos da Logística Reversa de Pós- Consumo decorrentes da aplicação de regulamentação ambiental baseada na responsabilidade estendida ao produtor, focando o estudo em uma empresa fabricante de aparelhos e baterias de telefonia celular. Para tanto, utilizou-se do estudo de caso como estratégia de pesquisa, cujos dados foram obtidos por meio de questionário, entrevistas não-estruturadas com os gestores da área de logística, análise de documentos e observação direta. Quanto às conclusões da pesquisa: (i) a implementação de regulamentação ambiental baseada na responsabilidade estendida ao produtor não acarreta necessariamente na elevação de custos ao fabricante. (ii) a empresa objeto de estudo deveria reconhecer contabilmente os custos de coleta, inspeção e seleção, exportação, administração do processo, reciclagem e redistribuição da logística reversa de pós-consumo, por se tratarem de custos ambientais decorrentes de obrigação legal e estar em conformidade com os Princípios Fundamentais de Contabilidade. (iii) a aplicação do Custeio por Ciclo de Vida é adequada e relevante para o conhecimento, a apuração e o processo de gestão dos custos da logística reversa de pós-consumo.
Custos da logística reversa de pós-consumo: um estudo de c ...
Hori, Mitsue
favoritar150005
Resumo: A gestação traz diversas alterações metabólicas, fisiológicas e no estilo de vida da mulher, que podem influenciar o ganho ponderal durante a gestação. O ganho ponderal durante a gestação é composto por: massa livre do gordura e tecido adiposo (materno), placenta, fluido amniótico e feto - entretanto não estão claros quais fatores estão associados à composição corporal materna, e se a gordura ou água (principal componente do tecido magro) estão associados ao peso ao nascer. Objetivo. Avaliar o efeito das mudanças da composição corporal durante a gestação sobre o peso ao nascer e os fatores potencialmente modificáveis associados (atividade física). Metodologia. Foi estudada uma coorte de 152 gestantes clientes do Hospital Amparo Maternal, São Paulo. As informações foram obtidas através de entrevistas com as gestantes, em três momentos para investigar a atividade física. O exame antropométrico foi realizado a cada consulta pré-natal, sendo o exame constituído de medidas de peso, altura, circunferência de braço, coxa e panturrilha, e pregas cutâneas de coxa e das regiões subescapular e tricipital, e bioimpedância. A análise de dados longitudinais foi realizada através de análises de regressão linear mista para verificar impactos das variáveis independentes sobre o a composição corporal. Para relacionar o efeito das mudanças na composição corporal durante a gestação sobre o peso ao nascer, foram utilizados modelos GAMLSS (modelo aditivo generalizado para locação, escala e forma), que permitem considerar ajuste para os parâmetros de dispersão. Foi considerado nível de significância inferior a 5%. Resultados. Os ganhos semanais de Água Corporal Total (ACT), Massa Livre de Gordura (MLG) não são diferentes entre os estados nutricionais. A velocidade de ganho semanal de Peso e Massa Gordurosa (MG) são menores para gestantes obesas (-14g/sem p=0,008 e -22g/sem p<0,001, respectivamente). Para cada aumento do nível de atividade física, há diminuição da velocidade de gan
Alterações da composição corporal durante a gestação e sua ...
Kurashima, Carolina Harumi
favoritar150006
Resumo: O conhecimento da distribuição da umidade no solo para diferentes tipos de solos e diferentes vazões pode ser aplicado na otimização do dimensionamento de um sistema de irrigação, no manejo da água na zona radicular, bem como, auxiliar na aplicação eficiente de fertilizantes na rizosfera. Portanto, objetivou-se com a presente pesquisa desenvolver um modelo numérico bidimensional capaz de simular a distribuição da umidade no perfil de solo para diferentes sistemas de irrigação. Sendo que para tal, o modelo utiliza o método das diferenças finitas, mediante uma discretização da solução da equação de Richards e o método iterativo de Picard, o qual foi utilizado para garantir a conservação da massa. O modelo numérico ainda torna possível considerar a extração de água pelas plantas e a evaporação da água na superfície do solo. E para avaliar o seu desempenho foi feita uma análise de sensibilidade. O modelo matemático foi desenvolvido no Departamento de Engenharia de Biossistemas, pertencente à Escola Superior de Agricultura Luiz de Queiroz - ESALQ/USP. A linguagem de programação utilizada foi Fortran 90. A estrutura computacional foi feita de forma a permitir ao usuário a entrada de informações tais como: a) dados do perfil do solo, no que se refere às suas propriedades físico-hídricas, b) informações sobre o tipo de irrigação, tempo de simulação, tempo de aplicação de água via irrigação. O programa permite ao usuário a opção entre simular a extração de água pela as plantas ou não. Para a validação do modelo foram utilizados os dados obtidos por Rivera (2004), em um experimento conduzindo no antigo Departamento de Engenharia Rural da Escola Superior de Agricultura Luiz de Queiroz. O desempenho do modelo foi avaliado com base nos parâmetros estatísticos: índice de concordância de Willmott. coeficiente de eficiência, raiz quadrada do erro médio, erro médio e o erro máximo absoluto. A análise de sensibilidade do modelo foi avaliada em função dos parâmetros: densi
Modelagem bidimensional do movimento da água em condições ...
Arraes, Francisco Dirceu Duarte
favoritar152210
Resumo: INTRODUÇÃO: Não há, até o momento, método ideal de avaliação da função renal em fetos com dilatação de vias urinárias. A ultrassonografia é utilizada como um método não invasivo e alguns parâmetros, como o índice de líquido amniótico, foram descritos na predição de insuficiência renal. Entretanto, a sensibilidade é baixa e a detecção de alterações, muitas vezes, ocorre tardiamente na gestação. A avaliação bioquímica da urina ou sangue fetais acrescenta risco à gestação e, apesar de melhorar a detecção de insuficiência renal, tem sensibilidade e especificidade baixas. O Power Doppler tridimensional é um método capaz de quantificar fluxo em órgãos parenquimatosos e tem sido utilizado na quantificação de fluxo sanguíneo de órgãos fetais e placenta. Como fetos com obstrução de vias urinárias e insuficiência renal apresentam diminuição no número de glomérulos, a quantificação do fluxo renal ao Power Doppler tridimensional poderia aprimorar a avaliação da função renal desses fetos. OBJETIVOS: quantificar o fluxo renal ao Power Doppler tridimensional em fetos com suspeita de obstrução de vias urinárias e naqueles com morfologia renal normal, avaliar a influência da profundidade nos índices vasculares e comparar os índices nos fetos que evoluíram com e sem insuficiência renal no período pós-natal. MÉTODOS: fetos com hidronefrose bilateral e/ou dilatação vesical foram prospectivamente comparados com fetos sem malformações em relação à quantificação do fluxo renal ao Power Doppler tridimensional. Os parâmetros avaliados foram IV, IVF, IF e a profundidade. Após o nascimento, as crianças foram seguidas por uma equipe de nefrologia e urologia e, de acordo com a função renal, foram classificadas em 2 grupos: insuficiência renal e função renal normal. A vascularização renal foi avaliada em cada grupo e comparada ao grupo controle. RESULTADOS: vinte e três fetos com dilatação de vias urinárias e setenta e três com morfologia renal normal foram considerados para a análise es
Análise da vascularização renal ao Power Doppler  tridimen ...
Bernardes, Lisandra Stein
favoritar150287
Resumo: Introdução: A terapia antirretroviral (ART) mudou o curso da Aids, porém está associada a alterações metabólicas e aumento do risco de doenças cardiovasculares. Objetivo: Avaliar o efeito da suplementação com ácidos graxos ômega-3 de origem marinha no perfil lipídico, na homeostase da glicose, na distribuição de gordura corporal e nos marcadores inflamatórios de adultos com HIV em ART. Métodos: Artigo 1. Trata-se de uma revisão sistemática da literatura com metanálise. Realizou-se busca por ensaios clínicos na base de dados PubMed. 33 artigos foram localizados, seis cumpriram os critérios de inclusão e quatro apresentavam qualidade metodológica adequada. Foi realizada metanálise com efeitos fixos e descrição das diferenças de médias sumárias (DMS (IC95 por cento )). Artigos 2 e 3. Trata-se de um ensaio clínico aleatorizado e controlado. Foram recrutados 120 adultos com idade entre 19 e 64 anos, de ambos os sexos. Os indivíduos alocados no grupo intervenção foram suplementados por 24 semanas com 3g de óleo de peixe/dia (900mg de ácidos graxos ômega-3) e indivíduos alocados no grupo controle receberam placebo (óleo de soja). Resultados: Artigo 1. Após 8-16 semanas de intervenção com 900-3360mg de ácidos graxos ômega-3/dia, observou-se redução de -80,34mg/dL (IC 95 por cento : -129,08 a -31,60) nas concentrações de triglicérides. A análise agregada de estudos com média de concentração de triglicérides > 300mg/dL no baseline e intervenção com 1800-2900mg de ácidos graxos ômega-3/dia resultou em redução de -129,72mg/dL (IC95 por cento : -206,54 a -52,91). Artigos 2 e 3. Foram considerados nas análises dados de 83 sujeitos. Os modelos multinível não revelaram relação estatisticamente significante entre a suplementação com óleo de peixe e as mudanças longitudinais nas concentrações de triglicérides (p=0,335), LDL-C (p= 0,078), HDL-C (p=0,383), colesterol total (p=0,072), apo B (p=0,522), apo A1 (p=0,420), razão LDL-C/apo B (p=0,107), índice homa-2 IR (p=0,387), IMC
Efeito dos ácidos graxos ômega-3 de origem marinha em parâ ...
Oliveira, Julicristie Machado de
favoritar150327
Resumo: O poli(fluoreto de vinilideno) (PVDF) é um polímero semicristalino que quando cristalizado a partir da fusão à temperaturas acima de 155°C apresenta uma variada morfologia cristalina, constituída por esferulitos anelados, não anelados e mistos. Abaixo dessa temperatura somente os esferulitos anelados são formados. Neste trabalho foi realizado um estudo morfológico do PVDF, procurando verificar a relação entre o tipo de esferulito formado e a fase cristalina predominante em suas lamelas. Foi verificado, por espectroscopia no infravermelho, que os esferulitos anelados apresentam exclusivamente a fase alfa, quando a cristalização ocorre a temperaturas inferiores a 155°C. Temperaturas superiores a essa induzem nessas estruturas uma transformação de fase alfa em gama, que aumenta a quantidade de fase gama com o tempo de cristalização. A taxa com que essa transformação ocorre aumenta com a temperatura de cristalização. Os esferulitos não anelados são constituídos predominantemente pela fase gama, cristalizada diretamente do fundido, com pequenas inclusões de fase alfa. O processo de fusão dos diferentes esferulitos, observado por microscopia ótica (MOLP) e medidas calorimétricas (DSC), mostraram que a temperatura de fusão da fase gama originada da transformação de fase é 8°C superior à daquela cristalizada diretamente do fundido. Micrografias de amostras aquecidas até 186°C e rapidamente resfriadas permitiram visualizar as regiões dos esferulitos anelados que sofreram a transformação de fase alfa em gama, para diferentes tempos e temperaturas de cristalização. Foi realizado, ainda, um estudo morfológico de blendas PVDF/P(VDF-TrFE), com diferentes composições e com o copolímero contendo 72% em mol de VDF. Análises térmicas (DSC) verificaram que os componentes da blenda são imiscíveis na fase cristalina, quando a cristalização ocorre a partir da fusão. Porém, micrografias obtidas por MOLP e MEV indicaram a presença de moléculas do copolímero nas regiões interlamelar
Estudo morfológico do PVDF e de blendas PVDF/P(VDF-TrFE).
Capitão, Rosa Cristina
favoritar150289
Resumo: Desde meados de 2007, um aumento significativo de unidades construídas pelo sistema Paredes de concreto tem influenciado o mercado da construção habitacional no Brasil. Em abril de 2012, foi publicada uma norma brasileira que trata exclusivamente desse sistema. Além disso, o desafio em minimizar o déficit habitacional estimula a utilização desse método alternativo, pois quando aplicado adequadamente proporciona alta produtividade e menor custo em relação a outros métodos construtivos. Por essas razões, é importante conhecer quais modelos de cálculo são seguros e pertinentes para a análise estrutural de edificações construídas pelo sistema Paredes de Concreto. Neste trabalho são avaliados, por meio da comparação de resultados, quatro modelos de cálculo, dos quais dois são numéricos, utilizados para o pré-dimensionamento e dimensionamento de paredes de concreto armado, moldadas no local. Este tipo de estrutura tem sido bastante utilizada na construção de edifícios. Deste modo utilizou-se como estudo de caso, um projeto adaptado de um edifício real com quinze pavimentos tipo, para a aplicação dos modelos de cálculo e algumas normas de projeto. Os dois modelos numéricos foram desenvolvidos no software SAP2000, baseado no Método dos Elementos Finitos, considerando análise elástica linear. O primeiro discretiza as paredes com elementos de casca e o segundo com elementos de barra. A interação entre o solo e a estrutura não foi considerada neste trabalho. Normas de projeto foram comparadas na etapa de pré-dimensionamento quanto às resistências últimas à compressão com objetivo de avaliar a recente norma brasileira. A verificação ao dimensionamento das paredes quanto às tensões normais de compressão e tração e tensões de cisalhamento foi realizada baseada nas expressões da NBR 16055:2012. Por fim, verificou-se o Estado Limite de Serviço das deformações excessivas globais, referentes à movimentação lateral do edifício e a estabilidade global do edifício estudado, pela
Utilização de modelos de cálculo para projeto de edifícios ...
Braguim, Thales Couto
favoritar150400
Resumo: O objetivo deste trabalho é investigar propriedades qualitativas das soluções de equações diferenciais funcionais com retardamento e impulsos em tempo variável (EDFRs impulsivas) através da teoria de equações diferenciais ordinárias generalizadas (EDOs generalizadas). Nossos principais resultados dizem respeito a estabilidade uniforme, estabilidade uniforme assintótica e estabilidade exponencial da solução trivial de uma determinada classe de EDFRs com impulsos em tempo variável e limitação uniforme de soluções da mesma classe. A fim de obtermos tais resultados para EDFRs com impulsos em tempo variável, estabelecemos novos resultados sobre propriedades qualitativas das soluções de EDOs generalizadas. Assim, portanto, este trabalho contribui para o desenvolvimento de ambas as teorias de EDFRs com impulsos e de EDOs generalizadas. Os resultados novos apresentados neste trabalho estão contidos nos artigos [1], [2] e [3]
Equações diferenciais funcionais com retardamento e impuls ...
Afonso, Suzete Maria Silva
favoritar150204
Resumo: Este trabalho apresenta um conjunto de contribuiçõoes teóricas e metodológicas para  o projeto e a implementação de linguagens de programação, utilizando o autômato  adaptativo como dispositivo formal para sua definição. A especificação completa de  uma linguagem de programação envolve desde a compreensão adequada de princípios  e fundamentos comuns entre todas as linguagens de programação, transparentes ao  programador, até as suas formas e características externas. Embora muitos modelos e  notações possam ser utilizados na formalização de diferentes aspectos envolvidos no  projeto e na implementação das linguagens de programação, o autômato adaptativo  demonstra alta aplicabilidade e adequação para uma definição completa da linguagem,  sem a necessidade do uso de diferentes notações. Demonstra-se como os autômatos  adaptativos podem ser utilizados como uma metalinguagem unificada para especificar  todas as componentes relevantes da definição formal da linguagem de programação,  tais como: análise léxica, reconhecimento da sintaxe livre de contexto e manipulação  de alguns aspectos dependentes de contexto da linguagem - declaração e uso de nomes  simb´olicos, semântica estática, declaração e expansão de macros, entre outros. São  apresentados os conceitos relacionados, e descrito os aspectos mais importantes da  formalização proposta. Para isso, utiliza-se uma linguagem imperativa simplificada,  sobre a qual é acoplado um mecanismo de extensão para torná-la extensÍvel.
Aspectos de projeto e implementação de linguagens para cod ...
Castro Junior, Amaury Antônio de