Produtos gerados: Dissertação

UM MÉTODO PARA SELEÇÃO DE ATRIBUTOS EM BASES DE DADOS DE CLASSIFICAÇÃO HIERÁRQUICA MULTIRRÓTULO

Problemas de classificação hierárquica multirrótulo normalmente precisam lidar com conjuntos de dados que possuem grande número de atributos e rótulos, o que pode interferir de forma negativa no desempenho do classificador. A aplicação de métodos de redução de dimensionalidade pode prover uma melhora significativa no desempenho dos classificadores. A seleção de atributos é um dos métodos de redução de dimensionalidade em bases de dados e compreende a escolha dos atributos mais relevantes a partir dos originais. Três abordagens principais para a seleção de atributos podem ser utilizadas: filtro, wrapper e embutida. De modo particular, a abordagem filtro faz a seleção baseado apenas nas características dos próprios dados e de maneira independente do algoritmo de treinamento. No contexto da classificação hierárquica multirrótulo, alguns métodos de seleção de atributos têm sido propostos. Estes métodos fazem uso de técnicas consolidadas em contextos de classificação plana e classificação monorrótulo, apresentando bons resultados. Neste sentido, este trabalho verificou a aplicabilidade da medida Fisher Score para a seleção de atributos em cenários de classificação hierárquica multirrótulo e propôs um método para esta tarefa utilizando a abordagem filtro. O método FSF-HMC consiste em avaliar os atributos a partir do cálculo individual do Fisher Score. Este cálculo foi adaptado para considerar a hierarquia de classes. Os atributos avaliados com pontuação acima do valor médio de Fisher Score apurado para todos os atributos são selecionados para compor o conjunto de dados reduzido que será utilizado para avaliação do classificador. Para validação do método proposto foram realizados experimentos com 10 bases de dados da Gene Ontology. Tais experimentos consistiram em avaliar o desempenho de dois classificadores hierárquicos multirrótulo, Clus-HMC e MHC-CNN, em termos da medida AUPRC, sendo realizada uma comparação dos resultados produzidos a partir dos conjuntos de dados originais e dos conjuntos de dados reduzidos. Os resultados dos experimentos demonstram que houve um ganho em termos do percentual de redução do número de atributos sobre os dados originais e que o desempenho dos classificadores foi estatisticamente equivalente para os conjuntos de dados originais e reduzidos.

MÉTODO PARA AJUSTE DE NÍVEL DE DIFICULDADE EM JOGOS EDUCACIONAIS FUNDAMENTADO EM ALGORITMO DE APRENDIZAGEM DE MÁQUINA

Jogos sérios são utilizados para impulsionar a aprendizagem de pessoas com ou sem deficiência intelectual de forma interativa com atividades e conteúdos pedagógicos de acordo com a realidade vivenciada pelos alunos. O aprimoramento dos jogos é realizado por meio de aplicação de técnicas e elementos de gamificação que procuram manter a atenção e engajar o aluno para superar desafios. Adicionalmente, algoritmos de aprendizagem de máquina estão sendo utilizados em jogos sérios com o objetivo de obter informações mais precisas das partidas dos jogos, características, dificuldades encontradas e o próprio comportamento do aluno. Este trabalho criou o método Tuning Game Level by Machine Learning (TGL-ML) para identificar atributos e aplicar algoritmos de aprendizagem de máquina com o intuito de obter padrões, regras e índices para mudança de níveis de dificuldade. O método desenvolvido está dividido duas partes, antes e depois de aplicar algoritmos de aprendizagem de máquina. A primeira parte descreve elaboração de um jogo da memória contendo a definição do público alvo e suas características, tema do jogo, o uso da gamificação e elementos da gamificação, a criação do jogo, a definição de atributos e as funcionalidades do jogo, finalizando com a geração da primeira versão do jogo. E na finalização da primeira parte é aplicado o jogo no público alvo, coleta de dados e ajustes de funcionalidades com base nos feedbacks recebidos. A segunda parte contempla a utilização de algoritmo de aprendizagem de máquina com a base de dados preparada para posterior aplicação dos algoritmos de aprendizagem de máquina para análise de dados. Após a análise de dados os conhecimentos adquiridos são utilizados para atualização da versão do jogo adicionando regras e índices obtidos a fim de ajustar os níveis de dificuldades em uma nova versão do jogo sério. Os resultados alcançados por meio da aplicação de algoritmos de aprendizagem de máquina indicam que as regras devem ser adicionadas em dois dos níveis de dificuldade disponibilizados no jogo da memória.

UMA ABORDAGEM PARA IMPUTAÇÃO DE VALORES FALTANTES EM PROBLEMAS DE CLASSIFICAÇÃO HIERÁRQUICA MULTIRRÓTULO

Dados faltantes são problemas comumente enfrentados por algoritmos de aprendizagem de máquina (AM) devido a diversos motivos, como por exemplo falha na inserção manual, medições incorretas de determinado sensor entre outros. Considerando isso, se torna importante usar métodos adequados para imputar dados ausentes em conjuntos de dados para tornar a aprendizagem do algoritmo mais eficiente. O problema de dados faltantes é mais desafiador quando se trata de bases de dados com classificação hierárquica multirrótulo com hierarquia estruturadas por um Grafo Acíclico Direcionado ou DAG. Este trabalho está inserido neste cenário, onde as classes estão dispostas em uma hierarquia podendo cada instância possuir mais de uma classe. Para resolver o este problema, foi criado um método de imputação de dados faltantes usando uma abordagem baseada em três tipos de regressão: linear, polinomial e múltipla. O algoritmo inicialmente verifica se há correlação entre os dados, utilizando a regressão somente caso esta correlação exista, caso contrário a abordagem de média dos valores observados é adotada. O método proposto é dividido em três etapas: verificação hierárquica multirrótulo, cálculo de correlação e aplicação do modelo. Para realização dos experimentos foram utilizadas 7 bases de dados da Ontologia Gênica com hierarquia estruturadas em formato de DAG. Os resultados mostraram que o uso da regressão apresentou a métrica baseada na área sob a curva de previsão e revocação (AUPRC) superior em 3 das bases de dados testadas quando comparadas as abordagens de não imputação de dados faltantes e média dos valores observados. Além disso, foram realizados os testes estatísticos de Friedman e Wilcoxon buscando comparar os resultados de todos os algoritmos. Os testes expõem certa diferença entre os resultados, porém mostraram que estatisticamente a diferença não é significativa.

BIOPLAG: ABORDAGEM DE DETECÇÃO DE PLÁGIO EM CÓDIGO-FONTE UTILIZANDO BIOINFORMÁTICA

O problema do plágio em programação afeta desde o meio acadêmico até a industria de softwares. Considerando a importância deste domínio de estudo, diversas abordagens desenvolveram ferramentas para automatizarem a detecção de plágio em programação, mas as soluções propostas não contemplam os mais diversos níveis ou tipos de modificações encontradas em códigosfonte plagiados. A abordagem proposta neste trabalho busca contemplar todos os níveis de modificações encontrados em códigos de programação seguindo uma classificação proposta na literatura. O funcionamento da solução proposta é fundamentado em técnicas da bioinformática e da ciência da computação. As seguintes técnicas são utilizadas: modelo de DNA sintético, alinhamento de sequências de DNA sintético e tokens. A avaliação da abordagem será realizada por meio de sete cenários de teste com um total de 253 códigos-fonte a serem verificados por diferentes níveis de plágio, e considerando em cada cenário os parâmetros avaliativos de experimentos: Precision e Recall. Esta abordagem pode detectar diferentes níveis de plágio em programação, além proporcionar o suporte a diferentes linguagens e maior eficiência na complexidade de tempo em relação a outras soluções como a JPLAG.

CODICE-UNIO: UMA ABORDAGEM INTEGRADA DE MÉTODOS PARA DETECÇÃO E INSERÇÃO DE PADRÕES DE PROJETO EM CÓDIGO-FONTE USANDO AGENTES

O processo de refatoração garante uma qualidade maior no código-fonte aumentando a sua manutenibilidade, confiabilidade e flexibilidade. De acordo com a literatura cerca de 70% do custo do software é para manutenção e isto pode ser diminuído usando técnicas que permitem aumentar a qualidade do código-fonte tal como a refatoração baseada em padrões de projetos. Constatou-se por meio de um mapeamento sistemático que os trabalhos na literatura de detecção e inserção de padrões de projeto não são realizados de forma autônoma. Este trabalho criou a abordagem Codice-Unio para detectar pontos de inserção e aplicar padrões de projeto com agentes usando a arquitetura de Belief-Desire-Intention (BDI). A abordagem contempla em um mesmo ambiente três métodos da literatura capazes de detectar e aplicar padrões de projeto em código-fonte escrito em linguagem Java. A fim de comparar o processo de refatoração antes e depois da aplicação do padrão de projeto foi contemplado na abordagem a avaliação de métricas relacionadas aos atributos de qualidade tais como manutenibilidade, reusabilidade e confiabilidade. A Codice-Unio foi implementada em um framework para agentes que suporta a arquitetura BDI e usou ferramentas específicas para leitura de código e avaliação dos atributos de qualidade. A abordagem foi avaliada com cenários de testes providos pelos métodos da literatura e posteriormente por projetos open-source encontrados na web via GitHub. Como resultado, a Codice-Unio é capaz de identificar e aplicar padrões de projeto em classes candidatas automaticamente em cerca de aproximadamente 97% dos projetos que foram submetidos ao experimento.

HORTIPRICE: FRAMEWORK DE DOMÍNIO PARA FORMAÇÃO DE PREÇO DE VENDA DA HORTICULTURA

O conhecimento de técnicas de gestão de custos permite ao administrador rural ter acesso às informações para tomada de decisão. Uma das práticas existentes é a formação de preço de venda, responsável pela administração dos custos de produção e definição do preço do produto cultivado. Dentre os trabalhos publicados na literatura voltados a temática desse estudo, constatou-se que existem poucas soluções automatizadas no contexto agrícola, e as que foram encontradas, utilizam-se de apenas uma metodologia de custeio. Por isso, a pesquisa objetivou criar uma ferramenta para a formação de preço de venda da horticultura, que compreenda mais de uma forma de precificação, no caso, foram implementados os métodos: Custeio ABC, Custeio por Absorção e Custeio Variável. O desenvolvimento do HortiPrice foi dividido em duas fases: a primeira relacionada a metodologia de pesquisa e a segunda associada ao desenvolvimento do produto. Como resultados destacam-se: a modelagem das metodologias de custeio, a criação da linguagem de padrões relacionada ao tema da pesquisa, a identificação de pontos de estabilidade e flexibilidade entre os métodos de custo e o modelo do framework refinado por meio da aplicação de padrões de projeto e metapadrões. O framework de domínio codificado foi avaliado com dados obtidos por meio do mapeamento sistemático executado, e os dados disponibilizados na internet pela Companhia Nacional de Abastecimento (CONAB), Embrapa Hortaliças e Empresa de Assistência Técnica e Extensão Rural (EMATER) referentes aos segmentos agrícolas alho irrigado, morango e rosa. Foram inseridas as informações de custo das culturas citadas anteriormente para que fosse possível realizar as simulações. Observou-se que os valores retornados satisfazem os preços praticados no mercado. O framework HortiPrice apresentou três pontos principais com relação a sua abordagem, a gratuidade de acesso, a utilização do modelo criado em outras pesquisas da área e a adição ou reuso de métodos e classes.

MÉTODO DE TRANSFORMAÇÃO DE MODELOS DE PROCESSOS DE NEGÓCIO PARA DIAGRAMA DE CLASSES DE ANÁLISE

A modelagem de processos de negócio constitui uma etapa importante na identificação de requisitos de sistema, o qual também é utilizado como base para a modelagem do mesmo. No entanto, dificuldades são encontradas ao realizar a transformação dos elementos presentes em um modelo de negócio para um modelo de sistema em razão de cada um utilizar notações e linguagens diferentes em sua criação. Em razão disso, métodos de transformação são propostos para realizar a interpretação dos elementos de um modelo ao outro para evitar que informações importantes sejam perdidas no processo de modelagem do sistema. Com este objetivo, foi realizado um mapeamento sistemático para identificar publicações sobre métodos de transformação de modelos de negócio para modelos de sistema. Na literatura foram encontrados diferentes métodos propostos para a realização desta transformação, no entanto, na maior parte dos casos não ocorre uma transformação direta do modelo de negócios para o diagrama de classes de análise e quando ocorre não é utilizado um processo formalizado para a geração da estrutura deste diagrama, o que pode resultar em falhas caso seja realizado de forma totalmente manual por um analista. Outro problema observado é a quantidade reduzida de elementos que são transformados, sendo que, muitos dos elementos do modelos de negócio poderiam ser transformados em elementos do diagrama de classes, mas são descartados durante as etapas do processo de transformação. A partir destas informações, este trabalho propôs a criação do método de transformação TMBC, o qual transforma diretamente modelos de negócio, criados por meio da notação Business Process Model and Notation (BPMN), para modelos de classes de análise, criados utilizando o diagrama de classes da notação Unified Modeling Language UML. O método utiliza a arquitetura de transformação Model Driven Architecture (MDA) para a criação dos modelos, a qual define a modelagem como o centro do processo de desenvolvimento com o objetivo de desconsiderar limitações referentes à plataforma utilizada para a implementação do sistema. Para a formalização do processo é utilizada a linguagem de transformação de modelos Atlas Transformation Language (ATL), onde são criadas as regras de relacionamento entre os elementos dos metamodelos da BPMN e da UML, que posteriormente são executadas para gerar a estrutura do modelo final em XML Metadata Interchange (XMI) que é utilizado para a criação do modelo do diagrama de classes. Para verificação da aplicabilidade do método a transformação foi realizada em 3 estudos de caso diferentes e os pontos de destaque foram comparados com outros métodos presentes na literatura.

MIRQUEST 2: SOLUÇÃO COMPUTACIONAL PARA INTEGRAÇÃO DE FERRAMENTAS DE PREDIÇÃO DE MICRO RNA UTILIZANDO BALANCEAMENTO DE CARGA

A bioinformática é um campo de estudo que tem a necessidade de construção de ferramentas que trabalham de forma otimizada e possuem um tempo de resposta rápido para o usuário. O material de estudo dessa área vem principalmente dos grupos de cadeias genéticas, dentre os quais, o micro RNA é a classe escolhida para estudo e por isso, foram selecionadas ferramentas de predição desse tipo específico de molécula genética Mirinho e miRBoost de forma à serem integradas em um único ambiente. A solução foi denominada miRQuest 2 e para a integração foi utilizado o balanceamento de carga por meio do algoritmo de Round Robin, além disso, foi utilizada a linguagem de programação Python para a construção de uma API integrada com uma interface desenvolvida em React para realização do processamento de uma cadeia FASTA da base de dados miRBase. Este algoritmo fornece otimizações e o tempo de resposta foi considerado satisfatório. A diferença de tempo de execução da ferramenta Mirinho na linha de comando e da solução computacional foi de 20%, enquanto que na ferramenta miRBoost foi de 5%.

PDDM: UM MÉTODO DE PROJETO DE BANCO DE DADOS APLICADO À PERSISTÊNCIA POLIGLOTA

Nos últimos anos, o crescimento das bases de dados impulsionado pelas aplicações Web 2.0 evidenciou limitações do modelo relacional quando se trata de escalabilidade. Isso fez com que surgissem os bancos de dados NoSQL, com modelos de armazenamento de dados diferentes do relacional. Esses bancos de dados propõem soluções para tais limitações por meio da escalabilidade horizontal e comprometem parcialmente a consistência dos dados. A combinação de diversos modelos de dados, chamada de persistência poliglota, amplia essas soluções provendo recursos para a implementação de sistemas complexos, que possuem componentes com requisitos distintos e que não seriam possíveis de ser implementados pelo emprego de apenas um modelo de dados de forma satisfatória. No entanto, não existem métodos consolidados para o projeto de banco de dados NoSQL, tão pouco para o desenvolvimento de sistemas que fazem uso da persistência poliglota. Este trabalho propõe um método de projeto de banco de dados aplicado à sistemas que utilizem persistência poliglota, pela combinação de diferentes modelos de dados. Este método pode ser aplicado ao modelo relacional e aos modelos de dados NoSQL orientados à agregados. O método proposto define um conjunto de sub-etapas pautadas nos conceitos já existentes de projeto de banco de dados. O objetivo é definir um processo formal para auxiliar na definição dos modelos de dados a serem utilizados e transformar o projeto conceitual em projeto lógico. Ao final, é demonstrada a aplicação do método em 3 casos de teste, visando demonstrar seus resultados e sua aplicabilidade para posterior execução do projeto físico das bases de dados.

REDUÇÃO DE DIMENSIONALIDADE EM BASES DE DADOS DE CLASSIFICAÇÃO HIERÁRQUICA MULTIRRÓTULO USANDO AUTOENCODERS

A predição de proteínas em dados de bioinformática é um exemplo de problema de Classificação Hierárquica Multirrótulo no qual cada instância pode estar associada a múltiplas classes, e estas por sua vez, estão organizadas em uma hierarquia. A alta dimensionalidade dos atributos e das classes influencia no desempenho dos classificadores, tanto no custo computacional quanto na capacidade preditiva, pois prejudica a busca por padrões e descoberta de conhecimento útil. A extração de atributos é uma das técnicas utilizadas para alcançar a redução de dimensionalidade em base de dados, e assim eliminar atributos irrelevantes e/ou redundantes que tendem a confundir um algoritmo de aprendizagem. Nessa técnica, por meio de combinações e/ou transformações dos atributos originais, geram-se novos atributos, mais significativos e que melhor representam a base de dados, em um espaço de menor dimensão. Desse modo, neste trabalho propõe-se um novo método de extração de atributos, FEAE-HMC, para classificação hierárquica multirrótulo, baseado em conceitos e técnicas de Deep Learning, por meio de adaptações em uma rede Autoencoder clássica. O método FEAE-HMC é dividido em duas etapas principais: a extração de atributos e a avaliação do conjunto de dados reduzido por meio de um classificador hierárquico multirrótulo (Clus-HMC e MHC-CNN) e sua medida de desempenho (AUPRC). Para a realização dos experimentos são utilizados dados biológicos de 10 bases de dados da Ontologia Gênica, sendo que as classes das mesmas estão estruturadas em uma hierarquia no formato de um Grafo Acíclico Dirigido (DAG). Conforme os resultados experimentais, o método FEAE-HMC se mostrou capaz de extrair representações de menor dimensão, que podem agregar correlações entre os atributos e rótulos. Essas representações, quando submetidas a um Classificador Hierárquico Multirrótulo, geram modelos nos quais se obtêm o desempenho preditivo equivalente e até mesmo superior ao desempenho da base original. A diferença obtida entre a medida AUPRC da base completa e uma base reduzida, com uma redução de até 90% da dimensionalidade original, é inferior a 0,047 em ambos classificadores. Testes estatísticos demonstram que as bases reduzidas extraídas pelo FEAE-HMC, são no mínimo estatisticamente equivalentes as bases originais.

ABORDAGEM PARA AVALIAR E DETECTAR PONTOS DE INSERÇÃO E APLICAÇÃO DE PADRÕES DE PROJETO EM CÓDIGO-FONTE

A refatoração tem a finalidade de melhorar o código-fonte em relação aos requisitos de qualidade como: manutenibilidade, flexibilidade, legibilidade, entre outros. Dentre os trabalhos encontrados na literatura voltados a refatoração de software baseada em padrões de projetos foram analisados os que abordam métodos e ferramentas. Constatou-se que estes trabalhos aplicam somente um processo de refatoração construído pelos próprios autores, as ferramentas possuem pouca ou nenhuma interação com o usuário e não existe a preocupação de se avaliar antecipadamente os benefícios de se aplicar um determinado padrão no código-fonte. Por isto, este trabalho criou uma abordagem para detecção de pontos de inserção e aplicação de padrões de projeto que reúne em um mesmo ambiente os métodos da literatura, além de fornecer informações sobre os benefícios de se usar um determinado padrão antes de sua aplicação efetiva. Estas informações são obtidas por meio de métricas de software relacionadas aos atributos de qualidade como a manutenibilidade, confiabilidade e reusabilidade. A abordagem proposta foi inicialmente avaliada aplicando cenários de testes providos pelos métodos da literatura e posteriormente foram usados cinquenta projetos open-source encontrados na web para testes. Como resultado, verificou-se que a abordagem é capaz de retornar candidatos a refatoração de mais de um método da refatoração, além de apresentar ao usuário uma avaliação do candidato a refatoração baseada em métricas e atributos de qualidade.

SELEÇÃO DE ATRIBUTOS USANDO A ABORDAGEM WRAPPER PARA CLASSIFICAÇÃO HIERÁRQUICA MULTIRRÓTULO

O avanço tecnológico traz como consequência um grande desafio, que é o de encontrar uma forma de armazenar e extrair conhecimento útil de uma massa de dados. Uma alternativa para esse cenário é a utilização de ferramentas da Mineração de Dados, sendo uma das técnicas empregadas, a Seleção de Atributos. A Seleção de Atributos é uma das técnicas que podem ser utilizadas para a redução de dimensionalidade de base de dados, tendo como objetivo principal identificar os atributos relevantes aumentando assim o poder preditivo do classificador. Basicamente, são três as abordagens para a Seleção de Atributos: Embutida, Filtro e Wrapper. No contexto de classificação hierárquica multirrótulo, onde as classes a serem preditas estão estruturadas de acordo com uma hierarquia, poucos trabalhos na literatura apresentam propostas de técnicas de seleção de atributos. Desse modo, neste trabalho propõe-se um novo método de seleção de atributos baseado na abordagem Wrapper para classificação hierárquica multirrótulo global. Para a realização dos experimentos são utilizados dados biológicos de 10 bases de dados da Ontologia Gênica, sendo que as classes das mesmas estão estruturadas em uma hierarquia no formato de um Grafo Acíclico Direcionado (DAG). A análise estatística demonstrou que o método proposto conseguiu encontrar um subconjunto que representa a base de dados hierárquica com uma medida de avaliação preditiva igual ou superior em todos os conjuntos de dados.

SISTEMA ESPECIALISTA PARA IDENTIFICAÇÃO DO MÉTODO DE CUSTEIO PARA FORMAÇÃO DE PREÇO DE VENDA

A presente pesquisa teve como objetivo geral estabelecer, por meio da utilização de um Sistema Especialista - SE, o método de custeio mais viável para a precificação de um determinado produto ou serviço, na área de contabilidade de custo. O sistema utilizado foi desenvolvido por meio de um conjunto de variáveis identificadas com o estudo aprofundado dos métodos mais usados para formação de preço de venda: Custeio por Absorção, Variável, Padrão ou ABC. As variáveis foram transformadas em perguntas e organizadas em cinco árvores de possibilidades agrupadas em quatro perguntas. Para cada pergunta, existe uma resposta do tipo sim ou não. A partir da árvore de possibilidades, foram criadas as regras, posteriormente implementadas em um Shell para SE denominado de Expert Sinta, software gratuito. A validação do sistema foi realizada comparando a árvore de possibilidades criada manualmente com a árvore gerada pelo Shell. A pesquisa classifica-se em aplicada, quanto à natureza; exploratória, quanto aos objetivos e quanto aos procedimentos, em bibliográfica e experimental. Este trabalho foi dividido em seis atividades principais: definições dos métodos de custeio, seleção de ferramenta para implementar o SE, identificação de questões, elaboração da árvore de possibilidades, implementação e validação do SE. Os resultados obtidos com o SE desenvolvido permitem o diagnóstico correto, de acordo com conhecimentos implantados previamente, com o objetivo de ser mais preciso e ágil do que os especialistas humanos, mas dependentes deste para alimentação do sistema. Desta forma, o SE pode auxiliar na tomada de decisão, auxiliando a manutenção da empresa em um mercado competitivo.

MÉTODOS DE FORMAÇÃO DE PREÇO DE VENDA EM SISTEMAS ERP POR INTERMÉDIO DE ARQUITETURA ORIENTADA À SERVIÇOS DO FRAMEWORK FRAMEMK

O processo de definição de preços de venda é crítico para o sucesso competitivo das organizações. E a não existência de sistemas ERP gratuitos que implementem diversos métodos de precificação criam um contexto de deficiência de ferramentas que auxiliemos gestores com esta necessidade. O Grupo de Pesquisa em Sistemas de Informação (GPSI) da Universidade Tecnológica Federal do Paraná, Campus Ponta Grossa, esta desenvolvendo um aplicativo denominado FrameMK (Framework para Definição de Preço de Venda). Assim este trabalho teve por objetivo principal demonstrar o uso de diversos métodos de precificação, por meio do framework de definição de preço de venda - FrameMK em sistemas ERP gratuitos, independentemente da sua plataforma, por intermédio de arquitetura de camada de serviços. Foram utilizadas ferramentas e métodos de desenvolvimento de software para atingir o objetivo, dentre eles a linguagem de modelagem UML e a linguagem de programação Java. As etapas do trabalho se deram inicialmente pelo estudo do framework seguido pela implementação de serviços de exposição direta dos métodos de precificação implementados. A partir deste ponto realizou-se a descrição dos requisitos de serviços e recursos de alto nível que auxiliaram na etapa de implementação dos serviços Web utilizando as tecnologias SOAP/WSDL e REST. Desta forma, os principais resultados obtidos foram: modelos de projeto dos três níveis de serviço. Modelos para implantação do FrameMK e casos de uso utilizados como base para a descrição de requisitos para o desenvolvimento das funções do terceiro nível de serviços. O produto de software que implementa as classes de serviço resultante em uma arquitetura orientada a serviço para o FrameMK, conjuntos de testes unitários de código e a sua implantação nos servidores do Grupo de Pesquisa em Sistemas de Informação da Universidade Tecnológica Federal do Paraná, Campus Ponta Grossa. Os sistemas ERP: webERP, OpenBravo e OpenERP foram trabalhados para demonstração da aplicação dos serviços e resultaram em versões integradas com o framework. Com estas versões os gestores de negocio beneficiam-se com a melhoria do processo de precificação de seus produtos e serviços.

Laboratório de Engenharia de Software e Inteligência Computacional

Siga-nos