Publicações do ICMC
URI Permanente para esta coleção
Navegar
Navegando Publicações do ICMC por Data de Publicação
Agora exibindo 1 - 20 de 334
Resultados por página
Opções de Ordenação
- ItemEspecificação de requisitos: uma introdução.(1996-03) Turine, Marcelo Augusto Santos; Masiero, Paulo Cesar[sem resumo]
- ItemAs regras gramaticais para a decodificação UNL-Português no projeto UNL.(1998) Martins, Ronaldo T.; Rino, Lucia H.M.; Nunes, Maria das Graças VolpeEste relatório descreve o conjunto de regras gramaticais para a decodificação UNL-português utilizando DeCoL 1.0 (Deconverter System for Latin Languages, versão 1.0), o decodificador disponibilizado pelo UNL Center. Esse conjunto foi especificado com base em dois corpora experimentais, que compreendem vinte sentenças do booklet de apresentação da Linguagem UNL e os capítulos XIV e XV da Carta das Nações Unidas. Sendo assim, as regras contemplam uma parte significativa (porém, incompleta) de todos os possíveis aspectos gramaticais da língua portuguesa. Elas são divididas em três grupos, que abordam aspectos distintos do processamento lingüístico: o tratamento semântico e, portanto, a inserção de itens lexicais em uma sentença, o tratamento sintático, ou seja, o intra-relacionamento entre tais itens na sentença e o tratamento morfológico, basicamente compreendendo a sufixação de palavras. Regras de processamento gráfico para o DeCoL também são definidas.
- ItemEstrutura de dados utilizada na abordagem em grafo E/OU para a resolução de problemas de corte.(2000-08) Vianna, Andréa Carla Gonçalves; Arenales, Marcos Nereu; Morabito, ReinaldoEste trabalho tem por objetivo mostrar a estrutura de dados e algumas técnicas utilizadas para a resolução do problema de corte bidimensional através da abordagem. em Grafo E/OU. Inicialmente é feita uma apresentação do problema de corte e da estratégia de busca híbrida, onde se combina a busca em profundidade primeiro com limite e a busca hill-climbing, utilizando heurísticas baseadas nos limitantes superiores e inferiores. Esta abordagem foi proposta inicialmente por Morabito (1989). Com isto pretende-se dar um suporte computacional para quem pretende implementar o problema de corte através da abordagem em Grafo E/OU, já que a maioria dos pesquisadores que o fazem, não estão ligados diretamente a área da computação e, não se tem disponível na literatura tais comentários.
- ItemBayesian inference for polyHazard models in the presence of covariates.(2000-08) Mazucheli, Josmar; Louzada Neto, Francisco; Achcar, Jorge AlbertoThe polyhazard models are a flexible family for fitting lifetime data. Their main advantage over the single hazard models, such as the Weibull and the log-logistic models, is to acommodate a large amount of nonmonotone hazard shapes, including bathtub and multimodal curves. The main goal of this paper is to present a Bayesian inference procedure for the polyhazard models in the presence of covariates, generalizingthe Bayesian analysis presented in Berger and Sun (1993), Basu, et, al. (1999) and Kuo and Yang (2000). The two most important particular polyhazard models, namely poly-Weibull, poly-log-logistc and a combination of both are studied in detail. The methodology is illustrated in two real medical datasets.
- ItemAutoria colaborativa na web: experiências e reflexões.(2000-10) Macedo, Alessandra Alaniz; Bulcão Neto, Renato de Freitas; Pimentel, Maria da Graça CamposAo ambiente computacional que apóia tarefas de ensino ou aprendizagem em grupo denominado-se Sistema de Aprendizado Cooperativo Apoiado por Computador (CSCL). A CoWeb é uma ferramenta computacional hipermídia que suporta a autoria colaborativa de páginas Web. Após uma investigação de ambientes CSCL específicos para edição , colaborativa e do levantamento das características, funcionalidades e limitações da CoWeb, este trabalho contribui com a definição de requisitos para ambientes de edição colaborativa utilizados no contexto educacional. As características da CoWeb- simplicidade, autoria aberta colaborativa, ausência de estrutura pré-determinada e persistência de dados- foram utilizadas como base para a análise do conteúdo de três repositórios CoWeb utilizados para suporte a uma disciplina de graduação e duas de pósgraduação. Os requisitos definidos são: definição de estruturas-padrão para páginas com conteúdo especifico; suporte a estilos de apresentação; definição de mecanismos de suporte a acompanhamento e avaliação; suporte a mecanismos para submissão e armazenamento a diversos tipos de documentos; suporte a mecanismos de ancoragem e ligação diversificados e, finalmente, suporte a mecanismos de segurança. Esses requisitos estão sendo utilizados como base para a implementação de uma nova versão da CoWeb.
- ItemUma revisão bibliográfica sobre a estruturação de textos científicos em português.(2000-10) Feltrim, Valéria Delisandra; Aluísio, Sandra Maria; Nunes, Maria das Graças VolpePara que um texto seja bem escrito e, consequentemente, comunique bem o seu propósito, é preciso atentar a uma série de fatores, tanto do seu conteúdo quanto da sua estrutura. Neste trabalho, é apresentada uma revisão bibliográfica sobre a estruturação de textos científicos, discutindo cada uma de suas seções, segundo os autores pesquisados. A realização desse levantamento bibliográfico serviu também para indicar a falta de pesquisas na área de estruturação de textos científicos em português, ao contrário do que acontece com textos em inglês.
- ItemImplementing and applying direct volume rendering with textures.(2000-12) Soares, Igor Prata; Minghim, Rosane; Oliveira, Maria Cristina Ferreira de; Nonato, Luis GustavoThis paper reports on the implementation of a Direct Volumetric Rendering (DVR) and Visualization techniquein the context of a general-purpose, low cost visualization software with available source code. The technique employs a texture mapping strategy to combine scalar values of volumetric data into three-dimensionalimages. Relevant implementation issues of this technique are presented, and the results are discussed in the light of a target application, namely visualization in dentistry. The technique presented here, DVRT, has demonstrated to behave better than the ray casting DVR technique for the data sets of interest, and also to produce very good results under shading.
- ItemCombination of techniques to enrich visualization in dentistry.(2000-12) Minghim, Rosane; Soares, Igor Prata; Oliveira, Maria Cristina Ferreira de; Nonato, Luis GustavoThis paper reports on the implementation of two diflerent approaches for visualization of dentistry data, discussing their role in providing adequate support for training, exploration, simulation and interaction in Dentistry applications. One of the approaches is a reconstruction technique based on the Delaunay Triangulation, and the other is a Direct Volumetric Rendering and Visualization technique with texture mapping. The results are evaluated in the light of the target applications, which are teaching and training in dentistry, as well as simulation of dental procedures and illnesses. Uses for multiple-technique visualization and exploration are discussed.
- ItemO Processo de desenvolvimento da BDL-NILC.(2001) Greghi, Juliana Galvani; Martins, Ronaldo Teixeira; Nunes, Maria das Graças VolpeNeste trabalho são relatados os passos da construção de uma base de dados lexicais para o português do Brasil, que deverá servir como repositório centralizador de informações. Além da base de dados, é documentado o processo de desenvolvimento das interfaces e ferramentas de acesso aos dados, divididos em quatro módulos: a) interface de consultas via web, b) interface gráfica do thesaurus, c) ferramenta de edição/inserção dos dados e d) ferramenta de geração de listas especializadas.
- ItemResultados experimentais da avaliação do SASHE.(2001-01) Paiva, Debora Maria Barroso; Nunes, Maria das Graças VolpeEste relatório tem por objetivos detalhar o processo de avaliação realizado no módulo de autoria do sistema SASHE, registrar os resultados relativos à avaliação de um conjunto de requisitos especialmente propostos para sistemas hipermídia educacionais, registar resultados adicionais obtidos a partir dessa avaliação e apresentar as pendências de implementação no contexto do SASHE, observadas durante a realização da avaliação.
- ItemMétricas de qualidade de hiperdocumentos: uma análise utilizando sistemas de aprendizado de máquina.(2001-03) Silva, Elisandra Aparecida Alves da; Fortes, Renata Pontin de Mattos; Monard, Maria Carolinasem resumo
- ItemAspectos de geometria diferencial em modelos estatísticos.(2001-03) Kaneko, André T.; Achcar, Jorge Albertosem resumo
- ItemRule induction using rough sets reducts as filter for selecting features: an empirical comparison with other filters.(2001-04) Pila, Adriano Donizete; Monard, Maria CarolinaThe Feature Subset Selection is an important problem within the Machine Learning area where the learning algorithm is faced with the. problem of selecting relevant features while ignoring the rest. Another important problem within this area is the complexity of the knowledge acquired (hypotheses) though rules induction. Rough Sets Theory is a mathematical tool to deal with vagueness and uncertainty information, One of the main features of this approach are the reducts, which is a minimal feature set that preserves the ability to discern each object from the others. This work presents in detail several experiments, results and comparisons using Rough Sets Reducts and other Filters for feature subset selection and rule induction. The purpose of this work is to investigate the reduction of the complexity of the rules induced in terms of the Feature Subset Selection problem, considering as measure of rules complexity the number of rules induced. All the experiments where run on natural datasets, most of them obtained from the UCI Irvine Repository.
- ItemProjeto TraSem: A investigação teórica sobre o problema da ambiguidade categorial.(2001-04) Rino, Lucia H.M.; Martins, Ronaldo Teixeira; Marchi, Ana Raquel; Kuhn, Denise Campos e Silva; Pinheiro, Gisele Montilha; Pardo, Thiago Alexandre Salgueiro; Di Felippo, Ariani; Nunes, Maria das Graças VolpeEste relatório descreve a investigação teórica do problema proposto inicialmente no subprojeto “Especificação dos Traços Semânticos dos Itens Lexicais”, cujo trabalho se iniciou em Março/99, estendendo-se até meados de 2000, com a implementação de um protótipo visando o aprimoramento do ReGra. A decisão pela prototipagem teve por objetivo, inicialmente, buscar caminhos para a avaliação da adoção de uma estratégia de aprimoramento baseada nas teorias investigadas. Após alguns meses de desenvolvimento do protótipo e sua conseqüente avaliação, decidiu-se adotar outra metodologia de investigação, agora empírica, com base na exploração do corpus do NILC. Além de descrever a abordagem teórica, apresentamos aqui as razões para a mudança de abordagem.
- ItemProjeto TraSem: a investigação teórica sobre o problema da ambiguidade categorial.(2001-04) Rino, Lucia Helena Machado; Martins, Ronaldo Teixeira; Marchi, Ana Raquel; Kuhn, Denise Campos e Silva; Pinheiro, Gisele Montilha; Pardo, Thiago Alexandre Salgueiro; Di Felippo, Ariani; Nunes, Maria das Graças VolpeEste relatório descreve a investigação teórica do problema proposto inicialmente no subprojeto "Especificação dos Traços Semânticos dos Itens Lexicais”, cujo trabalho se iniciou em Março/99, estendendo-se até meados de 2000, com a implementação de um protótipo visando o aprimoramento do ReGra. A decisão pela prototipagem teve por objetivo, inicialmente, buscar caminhos para a avaliação da adoção de uma estratégia de aprimoramento baseada nas teorias investigadas. Após alguns meses de desenvolvimento do protótipo e sua consequente avaliação, decidiu-se adotar outra metodologia. de investigação, agora empírica, com base na exploração do corpus do NILC. Além de descrever a abordagem teórica, apresentamos aqui as razões para a mudança de abordagem.
- ItemEstudo e desenvolvimento de aplicações JAVA com reconhecimento e síntese de voz.(2001-04) Rodrigues Júnior, José Fernando; Moreira, Dilvan de AbreuJustifica-se o estudo e a prática de técnicas de Reconhecimento/Síntese de Voz pelo fato desta área ser O marco principal das novas interfaces computacionais que atualmente se apresentam como a vanguarda da computação. Graças ao enorme aumento da capacidade de processamento juntamente com o aperfeiçoamento de técnicas de Inteligência Artificial, este novo meio de interação computador-usuário tornou-se possível e tende a ser a base dos sistemas computacionais da próxima geração. Hoje, a possibilidade de se comunicar verbalmente com a máquina já não é mais um sonho, é uma realidade que pode influenciar violentamente a produtividade e revolucionar a interação homem-máquina. O estudo e domínio desta tecnologia devem ser efetuados de forma precoce, possibilitando a implantação de sistemas desta natureza sistematicamente e antecipadamente. 0 projeto é centrado no Reconhecimento e Síntese de Voz baseados na utilização de uma nova tecnologia denominada ViaVoice, pesquisada e desenvolvida pela IBM durante os últimos 30 anos. As funcionalidades de Reconhecimento/Sintese de voz são acessadas através de uma API denominada SDK composta de três pacotes Java que possibilitam o desenvolvimento de aplicações que oferecem interface baseada neste novo paradigma: a voz. O projeto prevê uma análise aprofundada deste software seguida do desenvolvimento de aplicações baseadas na tecnologia.
- ItemProjeto TraSem: a investigação empirica sobre o problema da ambiguidade categorial.(2001-04) Pinheiro, Gisele Montilha; Rino, Lucia Helena Machado; Martins, Ronaldo Teixeira; Di Felippo, Ariani; Fillié, Vanessa Matsuda; Hasegawa, Ricardo; Nunes, Maria das Graças VolpeEste relatório dá sequência ao relatório técnico NILC-TR-O1-1 (Rino et al., 2001), o qual, a partir da exploração teórica dos problemas de especificação semântica para melhorar o desempenho do ReGra, aponta a necessidade de se analisar mais profundamente suas ocorrências de diagnósticos inadequados. A partir do estudo teórico, sugerimos uma metodologia empírica, fundamentada na busca de subsídios estatísticos sobre o corpus do NlLC. É esta tarefa, de exploração dos dados lexicais, que descrevemos aqui. Mais particularmente, concentramo-nos, primeiramente, no refinamento das especificações do léxico do ReGra, observando que muitos dos problemas de diagnóstico remetiam a inadequações já existentes no próprio léxico. A partir desse refinamento, a proposta é proceder à análise linguistica do corpus do NILC, etiquetado, com o objetivo de determinar padrões sintáticos que permitam tratar os casos de ambiguidade categorial.
- ItemVariabilidade Extra-Binomial: uso de métodos Bayesianos.(2001-05) Junqueira, Juliano José Guimarães; Achcar, Jorge AlbertoEm muitas aplicações da distribuição binomial, podemos ter uma observação variabilidade maior ou menor que a variabilidade esperada. Essa variabilidade é definida como variabilidade extra-binomial. Alguns modelos são introduzidos na literatura para se adequarem ao binômio extra-binomial variabilidade: modelos beta-binomiais, modelos binomiais correlatos e misturas de binômios modelos. Neste trabalho, analisamos esses modelos usando a abordagem Bayesiana e usando Métodos de Markov Chain Monte Carlo (MCMC). Também consideramos modelos na presença de covariáveis. Dois exemplos com data real são introduzidos.
- ItemEstudo de caso em educação continuada via internet.(2001-05) Rosa, Vanderley Flor da; Moreira, Dilvan de AbreuA educação enfrenta, nesse início de milênio, profundas mudanças, Existe hoje uma grande variedade de ferramentas de ensino à distância à disposição do educador, especialmente quando este faz uso de tecnologias atuais como a Internet e a Web, frente a este fato, esforços têm sido direcionados para a adequação das técnicas tradicionais de ensino aos novos tempos. O ensino à distância via Internet têm o potencial de por a força da rede mundial a serviço da educação, seja no ensino fundamental, de graduação ou, como no caso deste trabalho, na educação continuada. O objetivo deste trabalho foi, utilizando ferramentas desenvolvidas no laboratório [ntermídia (ICMC-USP), implantar e administrar um curso à distância via Internet, em nível de curso de extensão universitária (educação continuada), coletando e analisando dados sobre seu andamento e sobre sua comunidade alunos. O trabalho foi realizado através do oferecimento do curso à distância intitulado “Distributed Programing Using Java” (http://iava.icmc.sc.usp.br/iava course). Nesse relatório é feita uma análise dos dados conseguidos com vistas ao aprimoramento dessa técnica de ensino. São mostrados os números relativos ao curso, com pareceres emitidos pelos próprios alunos e ainda considerações a respeito de pontos merecedores de comentários.
- ItemSCOTIMM - a system for structured context-aware interactive multimedia applications.(2001-07) Santos Junior, João Benedito dos; Goularte, Rudinei; Faria, Gustavo Blengini; Moreira, Edson dos SantosThe possibility of using multimedia objects in modern applications has proven to be a bonus. We want to provide ways in which the user can interact with multimedia objects while it is been presented with features that go beyond the regular controls of a VCR. Furthermore, the presentation of the video can be modified by events happening in the surrounding environment. This technical report presents a system SCOTIMM - Structured ConText-Aware Interactive MultiMedia Applications - as a proposal to model the user actions from contextual information, in a way to ease its interaction with context-aware interactive applications like Interactive TV (ITV). The work also discusses how and which kind of contextual information could be used in one ITV environments that have an active network as the underlying infrastructure. The profile concept is presented and methods for using profiles in ITV programs are discussed.