sexta-feira, 26 de novembro de 2010

Conversa LSD - Avaliação de soluções para a consolidação dinâmica de servidores
A possibilidade de, dinamicamente, alterar a capacidade de máquinas virtuais e migrá-las de forma transparente entre servidores físicos  resultou em uma maior flexibilidade computacional, minimizando a quantidade de recursos físicos necessários. Entretanto, o processo de migração e reconfiguração de máquinas virtuais tem impacto direto no desempenho das aplicações. Os algoritmos mais utilizados, heurísticas para o problema de bin-packing, levam em consideração a minimização do número de migrações e servidores físicos utilizadosA solução DSCCRD (proposta por Tiago Ferreto(2010) - PUCRS) realiza a consolidação dinâmica de servidores considerando o impacto decorrente do atraso de reconfiguração. Mas o que realmente é impactante para um data center no ponto de vista financeiro: minizar o número de servidores físicos utilizados ou reduzir os atrasos de reconfiguração decorrentes da consolidação dinâmica?O trabalho que fora apresentado na Conversa LSD de 07 de outubro de 2010 apresentou, em linhas gerais, um estudo comparativo entre o DSCCRD e um algoritmo que implementa a heurística AWF, analisando a perda financeira decorrente da implantação de cada solução num cenário de um data center.

quarta-feira, 17 de novembro de 2010

Conversa LSD - Estimando o Valor de uma Grade P2P usando Provedores de IaaS como Parâmetro de Comparação

Transparências da apresentação realizada por Edigley Fraga no Conversas LSD.

Comparação entre duas opções para acelerar a execução de aplicações bag-of-tasks: uso de recursos remotos em grades oportunistas e a realização de cloudburst com Spot Instances (um dos modelos de negócio empregados pela Amazon).

domingo, 3 de outubro de 2010

Estágio de Verão no ICHEC

Voltei há pouco tempo de um Estágio de Verão no Centro Irlandês de Computação de Alto Desempenho (ICHEC). O ICHEC é um instituto governamental ligado a várias universidades e empresas, com o propósito de realizar transferência de tecnologia e incentivar e apoiar o uso de computação para fins científicos. Para isso, o Centro mantém três dos clusters mais potentes da Irlanda, além de gerenciar o acesso a diversas grades computacionais. Sua equipe é altamente qualificada, com profissionais especializados em várias áreas, incluindo métodos numéricos, astrofísica, ciências ambientais, geofísica e ciências biológicas, focando no suporte ao uso científico da computação.

Meu estágio foi entitulado "Implementation of the Multiple Polynomial Sieve Factoring Algorithm on the GPU Architecture", na área de Matemática Computacional e GPGPU Computing. O objetivo do estágio foi estudar e avaliar o desempenho de um algoritmo de fatoração de números inteiros grandes na arquitetura CUDA, da NVIDIA, para qualificar a segurança dos algoritmos de criptografia usados atualmente que se baseiam na inabilidade de fatorar tais inteiros grandes. O algoritmo escolhido tem o benefício de ser altamente paralelizável, de modo que se adequa perfeitamente a arquiteturas paralelas como a CUDA. Pude contar no meu estágio com a excelência dos profissionais do ICHEC nessa área, visto que o Centro é um NVIDIA CUDA Research Center, título cedido pela NVIDIA a mais somente outros 6 institutos em todo o mundo em reconhecimento às atividades de ponta com CUDA e GPUs.

Enfim, foi um prazer imenso trabalhar com esta equipe multicultural que compõe o ICHEC e representar o LSD, a UFCG e o Brasil em Dublin, na Irlanda. Esses dois meses e meio me trouxeram muito mais que conhecimento técnico e científico; foi uma experiência pessoal de muito valor, que trago para compartilhar ansiosamente com toda a equipe do LSD.

Mais informações sobre meu estágio podem ser encontradas na minha página pessoal (http://sites.google.com/site/renatomiceli) e na matéria sobre os Estágios de Verão publicada pelo ICHEC (http://www.ichec.ie/ichec_news/9), na página 7, onde são inclusive citados alguns dos produtos desenvolvidos no LSD.

Meu muito obrigado a toda a equipe do LSD, que contribuiu para que isso fosse possível.

Renato Miceli
Graduando em Ciência da Computação na UFCG e integrante do LSD

segunda-feira, 20 de setembro de 2010

WDCOPIN' 2010



O WDCOPIN é o workshop de teses e dissertações da copin, que acontece anualmente, já estando em sua nona edição. Este evento é promovido pela pós-graduação em ciência da computação do campus I-UFCG (COPIN), com o objetivo de divulgar as pesquisas sendo desenvolvidas na respectiva área.

Em 2010, o evento começa amanhã (21/09) e estende-se até a sexta-feira (24/09), oferencendo uma programação com palestras, mesa-redonda e sessões técnicas com os trabalhos desenvolvidos pelos alunos da COPIN. Mais informações no site do evento (http://www.computacao.ufcg.edu.br/pos-graduacao/wdcopin2010).

Vários membros do lsd estarão apresentando os resultados parciais de suas pesquisas (vejam os resumos na programação detalhada do evento). Confiram!!!

sexta-feira, 13 de agosto de 2010

Artigo apresentado no PCGrid, workshop realizado no CCGrid 2010

O artigo desenvolvido no LSD/UFCG entitulado "Predicting the Quality of Service of a P2P Desktop Grid" foi apresentado no "4th Workshop on Desktop Grids and Volunteer Computing Systems" (PCGrid 2010) que fez parte da programação do "10th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing" (CCGrid 2010), realizado em junho na cidade de Melbourne, na Austrália.
Após a conferência, os autores foram convidados a submeter uma versão estendida do artigo para uma seção especial em "Volunteer Computing and Desktop Grids" do periódico "Future Generation Computer Systems" (FGCS), da Elsevier. A versão estendida ainda está sendo avaliada e em breve os autores serão notificados sobre a aceitação dos artigos.

Abstract do artigo apresentado no PCGrid 2010:
Peer-to-peer (P2P) desktop grids have been proposed as an economical way to increase the processing capabilities of information technology (IT) infrastructures. In a P2P grid, a peer donates its idle resources to the other peers in the system, and, in exchange, can use the idle resources of other peers when its processing demand surpasses its local computing capacity. Despite their cost-effectiveness, scheduling of processing demands on IT infrastructures that encompass P2P desktop grids is more difficult. At the root of this difficulty is the fact that the quality of the service provided by P2P desktop grids varies significantly over time. The research we report in this paper tackles the problem of estimating the quality of service of P2P desktop grids. We base our study on the OurGrid system, which implements an autonomous incentive mechanism based on reciprocity, called the Network of Favours (NoF). In this paper we propose a model for predicting the quality of service of a P2P desktop grid that uses the NoF incentive mechanism. The model proposed is able to estimate the amount of resources that is available for a peer in the system at future instants of time. We also evaluate the accuracy of the model by running simulation experiments fed with field data. Our results show that in the worst scenario the proposed model is able to predict how much of a given demand for resources a peer is going to obtain from the grid with a mean prediction error of only 7.2%.
-------

Obs: A apresentação abaixo é melhor visualizada se baixada e executada no Power Point.

quarta-feira, 7 de julho de 2010

Conversa LSD com Elizeu: "Assessing the Value of Contributions in Tagging Systems"

Nesta sexta-feira, às 14 horas, teremos Conversa LSD com o palestrante Elizeu Santos-Neto. O tema da palestra é "Assessing the Value of Contributions in Tagging Systems". Elizeu é candidato ao título de PhD no NetSysLab (University of British Columbia). Sua área de pesquisa se concentra na caracterização e projeto de sistemas em redes entre-pares (peer-to-peer) e em comunidades de anotação colaborativa (collaborative tagging communities). Outras informações sobre Elizeu podem ser encontradas no seu site pessoal. Segue abaixo o resumo da palestra.

Assessing the Value of Contributions in Tagging Systems
by Elizeu Santos-Neto

Assessing the value of individual user contributions in peer-production systems is paramount to the design of mechanisms that support collaboration and improve users’ experience. For instance, to incentivize contributions, file sharing systems based on the BitTorrent protocol equate value with volume of contributed content and use a prioritization mechanism to reward users who contribute more. This approach and similar techniques used in resource sharing systems rely on the fact that the physical resources shared among users are easily quantifiable.

In contrast, information-sharing systems, like social tagging systems, lack the notion of a physical resource unit (e.g., content size, bandwidth) that facilitates the task of evaluating user contributions. For this reason, the issue of estimating the value of user contributions in information sharing systems remains largely unexplored. In this talk I introduce this problem, present a framework to guide the design of algorithms that estimate the value of user contributions in tagging systems, discuss three complementary success criteria for potential solutions, and outlines the methodological evaluation challenges.

quarta-feira, 30 de junho de 2010

Conversa LSD com Flavio e Jaindson

Nesta quinta-feira (01/07), na Conversa LSD, teremos duas palestras: "Assessing the Quality of Textual Features in Social Media" que será proferida por Flavio Vinicius (Peruca) e "Análise da Eficiência em termos de Velocidade de Download em Comunidades BitTorrent" que será proferida por Jaindson Santana. Abaixo os resumos das apresentações.


Assessing the Quality of Textual Features in Social Media
by Flavio Vinicius

Social media is increasingly becoming a significant fraction of the content retrieved daily by Web users. However, the potential lack of quality of user generated content poses a challenge to information retrieval services, which rely mostly on textual features (particularly tags) commonly associated with the multimedia objects. This paper presents what, to the best of our knowledge, is the currently most comprehensive study of the quality of textual features in social media. We analyze four different features, namely, title, tags, description and comments posted by users, in four popular applications, namely, YouTube, Yahoo! Video, Last.FM and CiteULike. Our study is based on an extensive characterization of data we crawled from the four applications with respect to usage, amount and semantics of content, descriptive and discriminative power as well as content and information diversity across features. It also includes a series of object classification and content recommendation experiments as case studies of two important information retrieval tasks. Classification and recommendation effectiveness is analyzed in light of our characterization results. Our findings provide valuable insights for future research and design of Web 2.0 applications and services.


Análise da Eficiência em termos de Velocidade de Download em Comunidades BitTorrent
Por Jaindson Santana

Pesquisas recentes tem mostrado que, embora tenha ocorrido um decréscimo no tráfego de sistemas de compartilhamento P2P na Internet em relação a outros serviços, ainda é possível observar um aumento de seu tráfego em valores absolutos. Dentre os sistemas utilizados, o BitTorrent se apresenta como o mais utilizado.

Uma das práticas utilizadas por alguns usuários BitTorrent consiste em criar ou se unir ao que chamamos de comunidades. Elas são criadas visando: amenizar problemas encontrados no sistema como poluição de conteúdo, unir usuários com interesses em comum, estabelecer uma rede social que agregue serviços além da distribuição de conteúdo, melhorar a qualidade de serviço, etc. Além disso, normalmente elas utilizam regras/políticas de conduta que seus usuários devem obedecer para fazer parte dela.

Como foi dito, a qualidade de serviço é uma das preocupações que levam os usuários a participarem de uma comunidade. No caso do BitTorrent, a qualidade de serviço pode ser vista em termos da velocidade de download experimentada por seus usuários.

O objetivo deste trabalho consiste na investigação de que fatores externos ao protocolo BitTorrent, mas presentes nestas comunidades, influenciam a qualidade de serviço experimentada pelos usuários das comunidades BitTorrent. Neste contexto, a Conversa LSD terá como objetivo realizar uma explanação em detalhes sobre este trabalho e seus resultados preliminares.

sexta-feira, 23 de abril de 2010

EGEE 5th User Forum - BeeFS Demonstration



BeeFS é um sistema de arquivos distribuído desenvolvido pelo Laboratório de Sistemas Distribuídos da Universidade Federal de Campina Grande. Um trabalho do professor Francisco Brasileiro em conjunto com seus alunos Thiago Pereira, Jonhnny Silva, Carla Araújo e Alexandro Soares.

sábado, 3 de abril de 2010

Artigo desenvolvido no LSD referente à Computação Verde será apresentado no SBRC 2010

O artigo desenvolvido no LSD-UFCG intitulado "Análise de Estratégias de Computação Verde em Grades Computacionais Oportunistas" será apresentado no XXVIII Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos (SBRC 2010).

O artigo aborda um problema que tem recebido muita atenção da comunidade científica: como aumentar o poder de processamento dos sistemas computacionais com o menor custo em termos do aumento no consumo de energia? Em outras palavras, o objetivo é encontrar formas de aumentar a eficiência energética desses sistemas.

Por que é importante aumentar a eficiência energética dos sistemas computacionais? Há uma motivação ambiental e uma motivação econômica. Geralmente, a motivação ambiental se refere à redução da emissão de Dióxido de Carbono (CO2) no meio ambiente, gás apontado em algumas pesquisas como um dos causadores do Efeito Estufa. De outro modo, a motivação econômica se refere à redução do custo operacional da infraestrura de computação.

Nesse sentido, o artigo analisa a aplicação de estratégias de computação verde em grades computacionais oportunistas. Essas grades são sistemas computacionais que têm sido amplamente utilizados para execução de aplicações científicas. Duas estratégias são analisadas: standby e hibernate. Elas são utilizadas quando as máquinas estão ociosas e, portanto, disponíveis para a grade, mas não há nenhuma tarefa para executar.

A avaliação utiliza um modelo simulado para avaliar o custo em termos de aumento do tempo de resposta das aplicações (makespan) e o benefício associado à redução no consumo de energia. Os resultados mostram que ambas as estratégias impactam o makespan dos jobs executados, mas reduzem o gasto da infraestrutura com energia. Entretanto, a estratégia standby resultou em uma maior economia e em um menor impacto no tempo de resposta da aplicação.

No dia 26 de maio de 2010, o artigo será apresentado na seção de Grades Computacionais do SBRC 2010. Outras informações sobre o simpósio podem ser obtidas no sítio.