segunda-feira, 30 de novembro de 2009

Banda larga de pobre se chama lan house

Gilberto Dimenstein publicou na coluna dele da Folha de São Paulo de domingo uma sugestão de como levar a cabo a idéia de democratizar o acesso à banda larga no Brasil: usar as Lan-houses. Trecho da matéria disponível na íntegra para assinantes da Folha e do UOL:

A UNIVERSALIZAÇÃO do acesso à banda larga transformou-se na última grande bandeira social do presidente Lula. Mas as próprias estimativas oficiais indicam que, para a ideia sair do papel, seriam necessários pelo menos 5 anos e, no mínimo, R$ 180 bilhões.
Para se ter, na prática, o acesso dos mais pobres a uma conexão veloz de internet, bastaria investir na rede de lan houses espalhada pelo país. Com muito menos dinheiro -aliás, com apenas uma pequena parcela daquela cifra bilionária- seria possível ampliar a rede, tirá-la da informalidade e sofisticá-la imediatamente.


São 108 mil lan houses e, só para dar uma medida de comparação, temos, em todo o país, menos de 20 mil agências bancárias. Por essa rede, instalada nas periferias e nos bairros mais pobres, circulam 31 milhões de pessoas, o que representa, segundo o Ibope, 48% de todos os brasileiros que acessam a internet.

Do total de frequentadores das lan houses, 24 milhões são das classes C, D e E. É um espaço, como todos sabem, onde imperam os mais jovens. De cada dez adolescentes entre 10 a 15 anos, seis passam por lá. A tradução é a seguinte: a inclusão digital no Brasil é um processo clandestino, sem nenhum incentivo do governo. Banda larga de pobre se chama lan house.


No fim da coluna ele também aponta para um estudo sobre as Lan-houses publicado pela Fundação Padre Anchieta e a Associação Brasileira de Centros de Inclusão Digital de onde alguns desses números saem.

quarta-feira, 25 de novembro de 2009

Versão beta do OurGrid@Home lançada

Iniciamos hoje as atividades do OurGrid@Home. Pra quem ainda não conhece, o OurGrid@Home é uma comunidade para os colaboradores do OurGrid, com o objetivo principal de absorver o público comum (usuários de desktop, por exemplo) para colaborarem com o grid, doando seus ciclos de CPU ociosos, semelhante ao SETI@home.

Convidamos todos a participar dessa versão Beta e a colaborar com o projeto, nos informando suas impressões, sugestões, críticas etc.

O link é http://athome.ourgrid.org/ e lá vocês encontrarão instruções de como ingressar na comunidade.

OurGrid@Home Team

sexta-feira, 13 de novembro de 2009

Conversa LSD - IaaS sobre Recursos Oportunistas

Transparências da apresentação realizada por Edigley Fraga no Conversas LSD.

"As ofertas de Infraestrutura como Serviço (IaaS) destacam-se por oferecer alta confiabilidade, segurança, desempenho, escalabilidade, elasticidade e disponibilidade. Embora essas características sirvam de chamariz, nem todas as aplicações realmente as demandam e a relação custo/benefício pode tornar inapropriado sua execução sobre IaaS, devido aos preços cobrados pelo serviço.

Uma opção para aplicações desse tipo é a execução sobre ambientes oportunistas (computação em grade voluntária ou grades de desktops). Diante desse contexto, objetiva-se aliar a flexibilidade existente no oferta de IaaS (disponibilidade de uma máquina virtual) com o baixo custo e facilidade de implantação de grades de desktops. Obviamente, mecanismos que garantam minimamente uma qualidade de serviço (QoS) devem ser adicionados.

Assim, o presente trabalho investiga a viabilidade da oferta de IaaS sobre um ambiente oportunista. Nessa conversa LSD foram discutidos trabalhos relacionados e opções técnicas e políticas para tornar a idéia viável"

quinta-feira, 12 de novembro de 2009

Tolerância a Falhas grátis com VMs

Aparentemente, replicação passiva tornada fácil com VMs:
(via Slashdot)

"The Remus project has just been incorporated into the Xen hypervisor. Developed at the University of British Columbia, Remus provides a thin layer that continuously replicates a running virtual machine onto a second physical host. Remus requires no modifications to the OS or applications within the protected VM: on failure, Remus activates the replica on the second host, and the VM simply picks up where the original system died. Open TCP connections remain intact, and applications continue to run unaware of the failure. It's pretty fun to yank the plug out on your web server and see everything continue to tick along. This sort of HA has traditionally required either really expensive hardware, or very complex and invasive modifications to applications and OSes."

links:
http://dsg.cs.ubc.ca/remus/
http://xen.org/

sexta-feira, 23 de outubro de 2009

The Fourth Paradigm: Data-Intensive Scientific Discovery


A Microsoft Research lançou um livro (disponível para download livre) sobre o dito quarto paradigma de pesquisa científica, a pesquisa centrada e intensiva em dados. Está lá, no site da micrososft research. Infraestrutura para computação científica é parte das condições para esse quarto paradigma e pivô na história, como já comentamos antes.

quarta-feira, 30 de setembro de 2009

Manual: How to generate innovation using governmental incentives in Brazil

O C.E.S.A.R publicou esses dias no site deles o manual ‘How to generate innovation using governmental incentives in Brazil‘. O material faz parte da série ‘How to do business in Brazil 2009’ publicada anualmente pela Amcham - um conjunto de dez guias destinados a potenciais investidores estrangeiros.

Confira a versão em português do manual How to generate innovation using governmental incentives in Brazil.

Sobre a série - A série ‘How to do business in Brazil’ é publicada pela Amcham há mais de 10 anos, com apoio de empresas sócias especializadas em cada uma das áreas. As edições são constantemente atualizadas. Para mais informações, visite http://www.amcham.com.br/rel_intl/howto/english/index_html

sábado, 19 de setembro de 2009

Conversa LSD - MAS-SCM

Transparências da apresentação realizada por Carla Souza sobre o projeto MAS-SCM, desenvolvido em parceria com as universidades UFCG, UFF e UTFPR para o Centro de Pesquisas e Desenvolvimento Leopoldo Américo Miguez de Mello - Cenpes - da Petrobrás.


quinta-feira, 17 de setembro de 2009

Researchers Collaborate on Trans-Atlantic Grid Infrastructure

Extraído daqui

Sept. 10 -- Encouraged by the success of grid computing in Europe, scientists there set out to help their Latin American colleagues develop grid capability. The result today is a thriving trans-Atlantic collaboration.

Researchers who need to store and manipulate massive amounts of data can't always get time on a supercomputer or supercomputer network. One very successful solution has been to build and use grids that link hundreds or thousands of ordinary computers. With enough computers and the right software, a computing grid can rival a state-of-the-art supercomputer.

European and North American scientists -- starting with the high-energy-physics community -- have had the benefit of grid computing for many years. However, their peers in regions such as Latin America and Africa have not, with the result that they often could not carry out front-line research in computationally demanding fields. The EELA project (E-infrastructure shared between Europe and Latin America) was formed with the aim of increasing collaboration between Europe and Latin America in grid technology, a field of growing importance to both regions.

"In areas such as high-energy physics, biomedicine and climate, the level of accuracy in your results depends on the level of accuracy of your simulation," says CERN's Philippe Gavillet, deputy project coordinator for EELA and its follow-on project, EELA-2. "We had a demand from our Latin American colleagues to be able to contribute, and this was one way to help them, by building up their computing resources."

By the end of the first EELA project, in December 2007, it had succeeded in creating a working Latin American grid that networked 3,000 computers and could store 700 terabytes (billions of bytes) of data, supported by 30 resource centres. Hundreds of Latin American researchers have now used the EELA-inspired grid to carry out research in climate modelling, high-energy physics, biomedicine and a variety of other fields that otherwise would have been out of reach for them. One of the most important research projects to which EELA contributed was WISDOM, which used some 5,000 computers in 27 countries to analyse over 140 million interactions between potential anti-malaria drugs and the malaria parasite.

An added benefit is that the EELA projects have fostered increased cooperation and collaboration between European and Latin American researchers. "Building networks of scientists with the same professional interests has been a very nice outcome," says Gavillet.

The success of EELA led to EELA-2, which aims to enlarge the Latin American grid, make it easier to use, and make sure that it is self-sustaining in terms of organisational and financial support.

EELA builds a grid infrastructure

Creating a functional grid presents many challenges. The first is linking a number of computers via the internet or through dedicated high-speed networks. Equally important is developing useful middleware -- user-friendly interfaces and programs to enable access to the system, provide security, manage data storage and retrieval, divide calculations into appropriate pieces, distribute them to the networked computers, and retrieve, organise and store the results.

The EELA team relied on a package of middleware called gLITE, initially designed to manage the grid that CERN relies on to process the floods of data from the Large Hadron Collider and other high-energy physics research. EELA-2 researchers added new features to gLITE that let it be used by scientists performing many different kinds of research. In addition, they adapted a version of gLITE that runs on computers using Windows operating systems, rather than linux.

Even with those modifications, researchers working in small groups with limited IT support needed something simpler. EELA-2 chose to implement OurGrid, a system designed to communicate with a large number of computers and use them when they would otherwise be idle. Besides being easier to use than gLITE, OurGrid allows each computer to work on its part of the calculation independently. This eliminates the need for high-speed connections linking the participating computers.

"OurGrid is very convenient to use and is becoming widespread," says Gavillet. "It doesn't need all the resources that gLITE requires, and is much more appropriate for small institutions."

EELA participants have also been active in providing training throughout Latin America, plus presentations and workshops at a variety of international meetings.

EELA-2 focuses on sustainability

EELA-2 currently (summer 2009) links 78 institutions from 16 Latin American and European countries, and supports more than 50 research projects from a wide variety of scientific fields. Even with a burgeoning Latin American grid in place producing an increasing flow of research results, Gavillet and his colleagues on both sides of the Atlantic knew that they had only accomplished half their task. What remained -- and has proved as challenging as creating the Latin American grid in the first place -- was to make it self-sustaining.

"The first objective in such an adventure," says Gavillet, "is to make sure that what you have built will stay in the long term."

Gavillet sees signs of progress towards sustainability, but with the EELA-2 project winding down, he is acutely aware that more work needs to be done.

"We have a clear strategy and we've very carefully costed all aspects of running and supporting the infrastructure," he says. "We've described the goal and the means, and through our collaborators, worked with decision-makers in all the involved countries."

Still, he says, gaining the political support to fund the project long-term is a very difficult task. EELA-2 has found a potential ally in CLARA (in English, Latin American Advanced Networks Cooperation), an international organisation with a strong interest in advancing academic computing in Latin America.

Gavillet hopes that by combining forces with CLARA, EELA-2 can gain the local funding and organisational support that will let it continue to foster cutting-edge scientific research in Latin America.

EELA and EELA-2 received funding in turn from the Sixth and Seventh Framework Programmes for research.

quinta-feira, 3 de setembro de 2009

BitTorrent Needs Psychiatric Guarantees: Quantifying How Vulnerable BitTorrent Swarms Are to Sybil Attacks

Transparências da apresentação realizada por Felipe Pontes no LADC'09. Pesquisa desenvolvida no Laboratório de Sistemas Distribuídos (LSD) - Universidade Federal de Campina Grande (UFCG)

terça-feira, 25 de agosto de 2009

terça-feira, 18 de agosto de 2009

Tapa no visual

Mudamos para um template mais light e adicionamos ali do lado um feed com a hashtag #lsd_ufcg no twitter.

sexta-feira, 7 de agosto de 2009

Procurando Search engines

Visto a grande quantidade de informação disponível, é necessário algum mecanismo para recuperar esta informação, seja ela: publicações e/ou livros de uma biblioteca digital, registros médicos, documentos compartilhados por meio de uma LAN, conteúdo de blogs (inclusive este =) e quaisquer outras páginas disponíveis na web, tweets, bookmarks, ... Uma boa alternativa é utilizar search engines. Mas, em vez de perder tempo criando uma, a melhor opção é utilizar alguma das várias opções já disponíveis na comunidade open source.

Entretanto, antes de escolher, é preciso considerar certos fatores, como: velocidade de indexação, tamanho do índice, tipo de armazenamento do índice, tipo de arquivos suportados para indexação (geralmente , html, pdf, doc, textos), suporte ou não para indexação incremental, performance e relevância. Vik Singh realizou um estudo comparativo entre as principais open source search engines. Neste estudo, ele realizou dois experimentos visando determinar quais as principais vantagens e desvantagens de cada uma delas. Ao final, Lucene apresentou os melhores resultados, de qualquer forma, vale a pena conferir os demais resultados.

Referência:
Vik Singh. A Comparison of Open Source Search Engines. http://zooie.wordpress.com/2009/07/06/a-comparison-of-open-source-search-engines-and-indexing-twitter/

segunda-feira, 3 de agosto de 2009

Ferramenta de visualização (e dados!) da Capes online: GeoCapes

(via o blog do Prof. Palazzo)

A Capes lançou uma plataforma de visualização de dados da avaliação e de investimentos que ela faz nos programas de pós-graduação do país. A plataforma, chamada GeoCapes permite uma série de filtros e os projeta no mapa da federação. Além disso, exporta dados históricos para o Excel.

Fiquei apenas curioso porque não disponibilizar todos os dados colhidos pela Capes (e não apenas os indicadores derivados). Espero que seja o próximo passo.

sexta-feira, 31 de julho de 2009

Ministério da Cultura Lança comunidade virtual para discutir cultura digital no Brasil

Do site do MinC:

O Ministério da Cultura e a Rede Nacional de Ensino e Pesquisa (...) (RNP), vinculada ao Ministério da Ciência e Tecnologia, lançam nesta sexta-feira, 31 de julho, em São Paulo, o Fórum da Cultura Digital Brasileira, primeiro site de Rede Social proposto pelo Governo Federal. (...)

O lançamento será realizado às 15h, no Centro Cultural da Federação das Indústrias do Estado de São Paulo (Fiesp), como atividade paralela ao Festival Internacional de Linguagem Eletrônica, e contará com a participação do ministro da Cultura, Juca Ferreira. (...) O encontro será transmitido em tempo real no link www.culturadigital.br/aovivo.

(...)

“A ideia de criar uma rede de mídia social no governo nasceu da necessidade de trazer a participação da população nas discussões das políticas públicas”, comentou o gerente de Cultura Digital da Secretaria de Políticas Culturais do MinC, José Murilo Junior.

(...)

terça-feira, 28 de julho de 2009

Padronização da Cloud - Computação na nuvem ou nas nuvens?

Padronização não é um tema inédito na área da computação distribuída. Em grades computacionais, por exemplo, discutiu-se bastante a necessidade de um padrão das várias tecnologias para que a metáfora da computação fornecida como energia elétrica se tornasse realidade. Alguns esforços, como o da Open Grid Forum (OGF), foram feitos para tal, porém sem muito sucesso.

Como já é característico na ciência da computação, cada grupo de pesquisa ou empresa geralmente cria seu próprio mundo e não há muita preocupação em criar um universo comum em que esses mundos se relacionem. Em Cloud Computing não é diferente. Apesar de ser algo novo, já se nota a nuvem sendo particionada entre diferentes empresas, tecnologias, interfaces, funcionalidades. No artigo The Wrong Cloud, da Maya Design, os autores criticam essa divisão da nuvem: "Today’s so-called cloud isn’t really a cloud at all. It’s a bunch of corporate dirigibles painted to look like clouds. You can tell they’re fake because they all have logos on them. Real clouds don’t have logos".

A idéia da nuvem como algo transparente para o usuário, onde processamento é obtido de forma fácil e elástica, é dificultada pela falta de padronização, resultando em uma depedência de tecnologias que são específicas para cada nuvem. Isto torna a aplicação dependente do provedor, impossibilitando uma fácil migração de um provedor para outro, além da interoperabilidade entre eles.

Para tentar amenizar o problema de padronização da nuvem, foi desenvolvida a libcloud, uma biblioteca para clientes de nuvens computacionais que fornece uma interface única para vários provedores de cloud computing. O projeto ainda é recente e as funcionalidades ainda são bastante limitadas. Porém, uma vantagem é que o projeto é open-source, tornando mais fácil a expansão das funcionalidades e dos provedores suportados.

Talvez uma biblioteca como esta não seja a melhor solução para os problemas de padronização das nuvens computacionais. Um dos motivos é a limitação das funcionalidades dos provedores que surge ao se criar uma interface única para todos eles. Talvez uma padronização adotada por todos os provedores seja a solução ideal, mas experiências passadas mostram que essa não é uma tarefa simples. Como o ideal parece longe de ser alcançado, fica ai a dica de uma biblioteca que tenta "colar" várias nuvens, aumentando um pouco a ilusão de que a computação é feita na nuvem e não nas nuvens.

terça-feira, 21 de julho de 2009

A Elasticidade, a Escalabilidade e a Nuvem

Ricky Ho publicou em seu blog uma questão bem interessante: Como definir escalabilidade e elasticidade?

Para ele, escalabilidade é tornar possível aumentar o workload de uma aplicação adicionando mais recursos. Obviamente esta estratégia possui um limite, simplesmente adicionar mais discos, processadores ou quaisquer outros dispositivos de hardware não resolverá problemas de escalabilidade. E este é um ponto interessante, pois ele considera escalabilidade apenas como adicionar novos recursos, leia-se hardware. Não seria a escalabilidade também implementada via software, sistemas distribuídos como o Google File System, por exemplo? A resposta é sim. E estas duas formas de conseguir escalabilidade são conhecidas como escalabilidade vertical e escalabilidade horizontal, respectivamente. Este post fornece um bom esclarecimento sobre cada uma delas.

Enquanto escalabilidade visa aumentar o workload de uma aplicação, ignorando a utilização ou não-utilização dos recursos disponíveis, elasticidade refere-se à habilidade de aumentar ou diminuir os recursos necessários para a execução da aplicação, on-the-fly. Deve-se notar que: possuir elasticidade não significa ser escalável.

No embalo da carruagem, Ricky Ho também mencionou outras características de aplicações na nuvem:

  • Statelessness: Evitar criar aplicações que armazenem estado

  • Minimizar o impacto causado pela movimentação de dados durante balanceamento de carga

  • Bons algoritmos para gerenciar o grau de elasticidade

Conversa LSD - 22/07/2009

Tema: “Automock: Interaction-Based Mock Code Generation”

Local: Auditório do LSD

Horário: 14:00h

Apresentador: Sabrina de F. Sout


Resumo:

Mock objects are used to improve both efficiency and effectiveness of unit testing. They can be used to write unit tests that completely isolate objects under test, while performing root cause analysis of defects. Writing tests that use mocks, however, can be a tedious, costly task and may lead to the inclusion of defects. Furthermore, mock based unit tests are known to be short-lived – they must be discarded for most design changes on the system. In this talk, I will present a technique that generates mock-based unit tests to face the mentioned drawbacks. It is based on the analysis of execution traces to capture interactions between a target object and its collaborators. I also will present Automock, a proof of concept tool developed to evaluate the feasibility of the technique.


Abraços e até Quarta

terça-feira, 14 de julho de 2009

Conversa LSD - 15/07/2009

Tema: Um modelo de armazenamento de metadados tolerante a falhas para o DDGfs
Local: Auditório do LSD
Horário: 14:00h
Apresentador: Alexandro S. Soares

Resumo da Conversa:

"O Desktop Data Grid file system (DDGfs) é um sistema de arquivos distribuído desenvolvido para atender a requisitos de escalabilidade e manutenabilidade não oferecidos por sistemas de arquivos distribuídos amplamente utilizados na prática, como NFS e Coda. No DDGfs, dados e metadados são armazenados em componentes separados. Os dados são armazenados em servidores de dados, enquanto os metadados são mantidos em um único
servidor de metadados. Essa arquitetura facilita o projeto do sistema, mas torna o servidor de metadados um ponto único de falha. Apesar de ser considerado um componente confiável, falhas são inevitáveis. Se esse componente
falhar, os metadados podem ser perdidos e todos os dados armazenados se tornam inacessíveis. Em nossa conversa, apresentarei um modelo de armazenamento de metadados que permite que o servidor de metadados seja restaurado após uma falha catastrófica que corrompa seu estado."

Abraços e até Quarta!

sexta-feira, 10 de julho de 2009

Cassandra: Eventually consistent, structured, distributed key-value storage

O pessoal do Facebook tornou público e aberto um projeto interno deles baseado no Dynamo da Amazon e no BigTable, da Google. O projeto, chamado Cassandra, assim como o Dynamo, é uma infra-estrutura altamente escalável para armazenar pares (chave, valor) de forma eventually consistent.

A publicação dos detalhes do Dynamo, assim como do MapReduce, BigTable e outros, é um prato cheio para a comunidade científica, já que mostra uma aplicação em produção e em grande escala de diversos conceitos que costumam ficar apenas em aulas de sistemas distribuídos ou em argumentos difíceis de justificar em artigos científicos. A disponibilidade do Cassandra leva isso mais um passo adiante, dando à comunidade um projeto em código aberto que está sendo usado dentro do Facebook para a experimentação.

quarta-feira, 8 de julho de 2009

Google Chrome OS

Para quem ainda não ouviu a novidade que, nos próximos dias, deve ser a fonte de milhares de rumores, especulações e matérias sem sentido em revistas de tecnologia: A Google anunciou um projeto de sistema operacional onde as aplicações são (quase?) todas Web: o Google Chrome OS.

quinta-feira, 18 de junho de 2009

A segurança do ciberespaço brasileiro

[Artigo publicado por Virgílio Almeida, Prof. da UFMG e membro da Academia Brasileira de Ciência na seção de opiniões da Folha de São Paulo, 18 de Junho de 2009]

UMA DAS principais medidas de impacto dos primeiros cem dias do governo Obama nos Estados Unidos foi anunciar oficialmente um plano para a segurança do ciberespaço americano.

Em seu discurso na Casa Branca, o presidente incluiu a segurança do ciberespaço no rol das grandes ameaças globais e enumerou algumas razões que justificam a prioridade dada pelo seu governo a esse tema. As razões são múltiplas. Cobrem desde a segurança do Estado e da sociedade até a privacidade do cidadão, passando por questões militares e econômicas.

O ciberespaço refere-se ao conjunto de redes interdependentes que formam a infraestrutura de tecnologia da informação, incluindo a internet, as redes de telecomunicações, as redes do sistema financeiro e os sistemas de computação e redes que operam os serviços críticos de um país, como distribuição de energia, água e petróleo, transporte público e outros.

Ao contrário da natureza virtual do ciberespaço, as consequências de ciberataques são reais e representam riscos ainda desconhecidos para os países. Milhões de americanos têm sido vítimas de golpes na internet, onde informações sobre indivíduos, contas bancárias e investimentos têm sido capturadas por organizações criminosas que atuam no ciberespaço e que, nos últimos dois anos, causaram prejuízos superiores a US$ 8 bilhões.

As entidades criminosas no ciberespaço são várias. Englobam desde jovens hackers até organizações criminosas e terroristas.
Segundo o FBI, no ano passado, ladrões invadiram uma rede do sistema financeiro para obter ilegalmente informações de cartões de crédito e pagamentos. Com essas informações eletrônicas, roubaram mais de US$ 9 milhões em 130 caixas eletrônicos, espalhados por 49 cidades em diversos países, numa operação orquestrada que durou apenas 30 minutos.

Ao reconhecer que os EUA não estão devidamente preparados para proteger o ciberespaço, Obama propôs a criação de um gabinete na Casa Branca, ligado ao próprio presidente, para coordenar políticas e estratégias de segurança, integrando vários órgãos e agências do governo americano envolvidas com o ciberespaço.

O objetivo é claro: tornar o ciberespaço americano seguro e confiável, com recursos para se prevenir e se defender contra ataques, além de criar capacidade rápida para recuperação da infraestrutura, em caso de ataques.

Dadas a complexidade, a abrangência e a criticalidade do ciberespaço, a elaboração do plano envolveu consultas a diversos segmentos da sociedade americana, incluindo empresas de tecnologia, universidades, laboratórios de pesquisa, entidades de defesa das liberdades civis, sociedades científicas, como a Academia Nacional de Ciências, e amplos setores civis e militares do governo.

Além dos EUA, outros países se movimentam para desenvolver estratégias e políticas de proteção de suas infraestruturas de tecnologia da informação. Nas recentes eleições gerais na Índia, as duas principais coalizões políticas colocaram entre as propostas prioritárias de campanha a proteção do ciberespaço, com a criação de uma agência governamental de alto nível para a segurança digital.

No Brasil, não há uma valorização sistemática da cultura de prevenção de riscos. A percepção de risco pela sociedade e pelo governo só toma lugar após a ocorrência de incidentes e acidentes que chocam e atemorizam a opinião pública.

A segurança do ciberespaço brasileiro demanda um plano de ação. Os números já apontam para uma preocupante direção. Segundo estatísticas públicas divulgadas pelo Centro de Atendimento a Incidentes de Segurança da Rede Nacional de Pesquisa, o número de incidentes reportados a esse centro no mês de abril último foi de 36 mil, um número quase quatro vezes maior do que os verificados nos meses anteriores, desde o início das estatísticas, no ano 2000.

O Brasil não tem políticas claras a respeito de potenciais ataques ao seu ciberespaço, que engloba suas redes de comunicação, seu sistema financeiro, suas redes elétricas e outros recursos informacionais.

A questão da segurança do ciberespaço deve ser debatida ampla e abertamente, pois envolve interesses de diferentes grupos da sociedade e do governo e, eventualmente, interesses governamentais e corporativos podem entrar em choque com as garantias individuais e as liberdades civis dos cidadãos.

São questões complexas e novas, e a análise e o encaminhamento dessas questões podem se beneficiar de um "approach" multidisciplinar, envolvendo várias áreas da ciência e da tecnologia, em conjunto com esferas culturais e sociais do país.

VIRGILIO AUGUSTO FERNANDES ALMEIDA , 59, é professor titular do Departamento de Ciência da Computação da UFMG (Universidade Federal de Minas Gerais) e membro da Academia Brasileira de Ciências.

terça-feira, 16 de junho de 2009

Conversa LSD - 17/06/2009

Tema: Gerenciamento de Dados em Grades Computacionais Entre-Pares
Local: Auditório do LSD
Horário: 14:00h
Apresentador: Rafael Silva

Resumo da Conversa:

"As grades computacionais geralmente são utilizadas para a resolução de cálculos ou processamento científico intensivo. Ao longo do processo evolucionário das grades computacionais, pode-se observar o crescimento de diversas aplicações que realizam processamento intensivo de uma grande massa de dados. Essas aplicações são denominadas Data Intensive – termo utilizado para enfatizar aplicações que produzem e consomem grande volume de dados. De fato, a maioria das tarefas que necessitam de serviços providos por grades, especificamente no domínio científico, envolvem a geração ou o consumo de grandes bases de dados, ou ambos. Nesse sentido, observa-se a necessidade da disponibilidade de um conjunto de serviços que seja capaz de endereçar o gerenciamento dos dados de forma adequada."

Introdução realizada, vamos à conversa:

Na Conversa LSD desta semana iremos discutir sobre o serviço de gerenciamento de dados para grades oportunistas P2P (especificamente o OurGrid), onde tentaremos demonstrar quais suas aplicações e como estamos abordando a problemática.

Abraços e até Quarta!

quarta-feira, 10 de junho de 2009

Folha sabatina Miguel Nicolelis

A Folha Online publicou hoje a íntegra de uma sabatina promovida pelo jornal com o Neurocientista Miguel Nicolelis. Entre outras coisas, Nicolelis é o responsável pelo Instituto de Neurociência de Natal (mais Laboratórios na Universidade de Duke e em outros lugares), por ter feito sensores no cérebro de uma macaca controlarem vídeo games e robôs e por um promissor tratamento para o mal de Parkinson.

terça-feira, 9 de junho de 2009

Projeto MAS-SCM/Petrobrás

A primeira etapa do projeto MAS-SCM consiste, resumidamente, em um Sistema Multi-Agente que simula uma loja de computadores. Ele é capaz de lidar com os fornecedores, com os clientes e com a linha de montagem das máquinas.
Esse agente foi feito em conjunto com Universidade Federal Fluminense e Universidade Tecnológica Federal do Paraná, para participar da competição TAC-SCM (Trade Agent Competition - Supply Chain Management), um evento anual organizado pela Universidade Carnegie Mellon e SICS desde 2003.
Cada rodada do jogo é composta por 6 agentes disputando o mesmo mercado. O vencedor será aquele que obterá o maior lucro.

As classificatórias começaram ontem às 9 horas da noite (0 GMT) e continuará até 15 de Junho, 23:55 GMT.

Para quem tiver curiosidade, os jogos podem ser acompanhados nos servidores http://tac01.cs.umn.edu:8080/ e http://tac02.cs.umn.edu:8080/.
O resultado dos jogos podem ser vistos em Game History;
E o resultado parcial da Qualifyning encontra-se em http://tac01.cs.umn.edu:8080/tac01.cs.umn.edu/history/competition/26/total/index.html

BitTorrent DNA

A BitTorrent Inc. (empresa de Bram Cohen, inventor do BitTorrent) apresentou no CodeCon 2009 o BitTorrent DNA, uma solução para tornar transparente a distribuição de arquivos de instalação de software através do BitTtorrent. Aparentemente, é uma solução muito conveniente e poderosa baseada em um princípio simples que tem todo o jeito de que pode ser estendido para qualquer tipo de arquivo.

Do site:

"BitTorrent DNA is a FREE content delivery service based on the BitTorrent protocol which brings the power of user-contributed bandwidth to traditional content publishers while leaving publishers in full control of their files."

Conversa LSD (10/06/2009)

Olá pessoal! Teremos amanhã mais uma Conversa LSD:

Tema: Sistemas P2P
Local: Auditório do LSD
Horário: 14hs
Coredumpers: Abmar Grangeiro de Barros e Adabriand Andrade Furtado
Apresentador: Jaindson Valentim Santana

Resumo da apresentação:
Um sistema P2P é aquele descentralizado, auto-organizável, cujo principal objetivo é o compartilhamento de recursos entre os nós que fazem parte do sistema; nós estes que são autônomos, possuem papel semelhante e, ao mesmo tempo que são consumidores dos serviços, também são provedores destes. O objetivo da apresentação é uma introdução aos sistemas P2P, abordando suas principais terminologias, conceitos, aplicações e modelos.

Todos estão convidados! Compareçam!

quarta-feira, 3 de junho de 2009

UFCG/DSC/COPIN em Primeiro e Segundo lugares em Evento em Nova Iorque, EUA

(texto gentilmente cedido pelo professor Antão Moura)

Sras. e Srs.,

Pesquisador dos Laboratórios da Hewlett-Packard (HP Labs) classificou recentemente a UFCG como um "Centro de Excelência Mundial em P&D sobre gerência de TI orientada por métricas de negócio" (Business-Driven IT Management - BDIM). De fato, a UFCG vem tendo participação expressiva em evento internacional sobre o assunto promovido anualmente pelo IEEE. Na sua edição de 2009, o IFIP/IEEE International Workshop on BDIM acontece esta semana (1 a 5 de junho), concomitantemente com o Integrated Network Management 2009.

A UFCG teve 3 artigos técnicos aceitos para apresentação no BDIM 2009, ou cerca de 30% do total de artigos no evento. Destes, 2 foram indicados como finalistas (de um total de 3 concorrentes) para o prêmio Best Paper Award do evento. A UFCG ficou em primeiro lugar com o artigo "Value-based IT Decision Support" e em segundo com o artigo "On the Evaluation of Services Selection Algorithms in Multi-Service P2P Grids".

O artigo que recebeu o BPA é de co-autoria de aluno de doutorado da COPIN (José Augusto Oliveira Neto) e foi desenvolvido no âmbito do projeto Bottom Line, apoiado pela HP. O segundo lugar, novamente de co-autoria de aluno da COPIN (Álvaro Vinícius de Souza Coelho), está inserido no projeto Hybrid Clouds, também apoiado pela HP.

A COPIN custeou a viagem de José Augusto para Nova Iorque, o que é aqui, agradecido.

Abraços,

--
Antão Moura
Systems and Computing Department
Federal University of Campina Grande (Brazil)
+55 (83) 9313 9687

segunda-feira, 1 de junho de 2009

Conversa LSD - Palestras de Miranda Mowbray

Olá pessoal,

Na conversa LSD desta quarta-feira (03/06/2009), teremos o coredumper de Jonhnny Weslley, no qual ele abordará a ferramenta Sonar e a apresentação será realizada por Miranda Mowbray, pesquisadora da HP em Bristol. Na sexta-feira teremos outra apresentação de Miranda Nowbray. Os dias, horários e os abstracts das apresentações estão indicados abaixo.


Quarta-feira (03/05/2009)

14:00 Coredumper

14:30 "The Fog over the Grimpen Mire: Cloud Computing and the Law"

"O Nevoeiro sobre o Escuro Atoleiro: Cloud Computing e Direito"
Abstract:
This talk is about legal questions connected with cloud computing, the business trend in which computation is carried out on behalf of a user on remote machines, using software accessed through the Internet. The legal issues include access to data by foreign governments, data usage rights, and security. I will give examples from customer agreements currently used by prominent Cloud Computing providers. I will also mention a technical approach that may resolve some of these issues.


Sexta-feira (05/05/2009) - 14:00

"Network worm detection using Markov's and Cantelli's inequalities"
"Usando desigualdades estatísticas para detectar o minhocão na sua rede"
Abstract:
I will present a new method of detecting network worms, which makes use of Markov's and Cantelli's statistical inequalities. In simulations using using a data set of over 3 million packets sampled from an enterprise network, the Markov-Cantelli method produces considerably fewer false alarms than a detection method based on one used in a commercial security product.

segunda-feira, 25 de maio de 2009

Container-based datacenters

O blog de Greg Linden tem um post com uma série de apontadores e informações interessantes sobre datacenters do Google que são baseados em containers de máquinas. É um passeio interessante sobre uma das infra-estruturas onde a nuvem realmente roda. Abaixo o vídeo, mais informação e opiniões no dito post.

segunda-feira, 11 de maio de 2009

Técnicas de Modelagem e Predição de Comportamentos em Arquiteturas Paralelas (Conversa LSD 13/05/2009)


Algumas vezes, ao realizar uma pesquisa, sentimos a necessidade de modelar a carga de trabalho de um sistema real. Isso ocorre, por exemplo, quando desejamos realizar simulações e análises em um ambiente controlado e, para isso, precisamos reproduzir uma carga real. Diversas técnicas de caracterização foram desenvolvidas para auxiliar nessa tarefa -Raj Jain (1991) apresenta algumas. No entanto, seja pela complexidade do comportamento do sistema ou em razão de alguma peculiaridade do trabalho, gerar um modelo condizente com a carga real torna-se uma tarefa muito difícil. E se, além de modelar adequadamente a carga, também estivermos interessados em utilizar o modelo para predizer a carga de um período futuro? Nesse caso trata-se de uma Técnica de Modelagem e Predição de Comportamentos. Você já vivenciou uma situação semelhante a essa? Pois é exatamente sobre isso que vamos conversar na próxima quarta-feira na tradicional Conversa LSD.

Nesse contexto, vou falar um pouco sobre o trabalho “Modelagem e Predição de Jobs em Arquiteturas Paralelas”. Esse trabalho teve como objetivo prover informações sobre o comportamento dos jobs ao Algoritmo Reconfigurável de Escalonamento Gangues (Reconfigurable Gang Scheduling Algorithm – RGSA). O uso de conceitos de computação reconfigurável em algoritmos de escalonamento paralelo de tarefas visa aumentar a flexibilidade e adaptabilidade deles às variações nas arquiteturas paralelas e cargas de trabalho.

Até quarta-feira às 14 horas na Conversa LSD.

quarta-feira, 6 de maio de 2009

SegHidro - o nosso jeito de fazer e-Science (Conversa LSD 06/05/2009)

Olá pessoal,
Os responsáveis pela Conversa de hoje somos Edigley (o coredumper) e eu.

O Coredump será sobre as experiências no projeto e desenvolvimento de uma solução criada (aperfeiçoada?) por Edigley chamada Toolkit SegHidro. O toolkit empacota um conjunto de ferramentas que podem auxiliar na criação de aplicações (ou experimentos) científicos usando o OurGrid. O público alvo, inicialmente, foram os membros da comunidade SegHidro que são profissionais e acadêmicos das áreas de ciências ambientais, recursos naturais, hidrologia, engenharias, etc. Entretanto, o toolkit é genérico o suficiente para que outros usuários do OurGrid possam se beneficiar de suas funcionalidades. Com ele podemos, por exemplo, automatizar a criação e submissão ao OurGrid de uma varredura de parâmetros.

Propaganda feita, vamos ao tema da Conversa.

Vamos falar sobre e-Science. Este termo foi cunhado por John Taylor quando da descrição de um projeto no Reino Unido - "e-Science is about global collaboration in key areas of science and the next generation infrastructure that will enable it." Na época, o componente básico da chamada cyberinfrastructure era o grid. Daremos uma visão geral sobre a área, abordando os principais aspectos tecnológicos envolvidos. Atualmente, não são só os grids merecem destaque, mas também workflows, repositórios de dados, as redes sociais, dentre outros.
Além disso, há uma tendência para se trazer para mais perto dos cientistas do dia-a-dia os avanços viabilizados pela e-Science. Sem esperar que as suas pesquisas sejam parte de uma "colaboração global" ou em "áreas chaves da ciência".

Além destas discussões, mostraremos alguns projetos bem sucedidos que estão sendo desenvolvidos no mundo e falaremos um pouco do SegHidro - o nosso jeito de fazer e-Science.

domingo, 3 de maio de 2009

Seghidro/OurGrid na newsweek

Ontem (02/05), saiu uma reportagem na versão versão on-line da newsweek sobre como infra-estruturas de computação distribuída, grids e clouds por exemplo, podem apoiar o trabalho de cientistas ao redor do mundo.

A reportagem destaca como o SegHidro, usando o OuGrid como middleware, tem ajudado cientistas e engenheiros a lidar com os problemas causados pela seca no nordeste brasileiro.

Segue um trecho da reportagem, que pode ser lida na íntegra aqui

Number Crunching Made Easy

Cloud computing is making high-end computing readily available to researchers in rich and poor nations alike.

By Christopher Werth | NEWSWEEK

A dwindling water supply spells disaster for the residents of Brazil's arid Northeast, who live by subsistence agriculture. Droughts have become longer and more frequent, and every year more families set off for the urban slums. Predicting how rainfall patterns will shift in a few years and how it will affect aquifers and agricultural output has become an urgent task. Civil engineers need to know where to build reservoirs and how much water they should hold. But this kind of local climate modeling requires a lot of number crunching, and supercomputers are rare in these parts.

To get around this hurdle, a group of universities and government labs, called SegHidro (which means "water security"), pooled the computing resources in labs scattered throughout the country. Using software called OurGrid, they adapt global climate models to local conditions, parceling out pieces of the massive job to little computers in the network. This kind of collaboration is getting a big boost from new so-called cloud-computing services from Amazon, Google and Microsoft. By driving down the cost of scientific computation, it promises to be a boon to researchers in rich and poor nations.



Quais os "tópicos quentes" de pesquisa em Redes de Computadores? Veja o que rolou no INFOCOM 2009!

Olá pessoal! Primeiramente (da mesma forma que peruca) gostaria de agradecer a Naza pelo convite para contribuir com o blog... sinto-me honrado.

Nesse meu primeiro post, gostaria de relatar a mega-experiência que foi, para mim, participar de um dos principais congressos internacionais na grande área de redes de computadores: o INFOCOM. O objetivo não é fazer um resumo das palestras técnicas e sim dar uma visão geral dos tópicos abordados nas sessões e a impressão que fiquei da conferência. (Se alguem precisar de algum material apresentado por lá, sinta-se à vontade para me pedir.)

Logo no domingo (19/04) aconteceu um tutorial para os estudantes participantes do INFOCOM, intitulado "Sensor networking: next-generation sensor networks and applications". Estavam lá na frente os Professores Jim Kurose (aquele mesmo do nosso livro de redes) e o Ramesh Govindan (até então, desconhecido para mim). Minha impressão foi que os dois fizeram uma propaganda (no bom sentido) e um discurso motivacional para atrair a atenção dos estudantes para a área. Ambos estão atualmente pesquisando em redes de sensores (WSN - Wireless Sensor Networks). O tutorial foi bem legal e manteve-se num nível superficial. Impressão nº1: Kurose é o cara!

No dia seguinte (segunda-feira) foi o dia do Student Workshop e algumas outras sessões técnicas que perdi por estar no workshop. Eu apresentei meu poster, intitulado "Towards a Robust Pollution Control Mechanism for P2P File Sharing Systems", pela manhã. Fui abordado por aproximadamente oito pessoas e foi muito legal! Destaco um momento que chegou uma italiana, olhou o poster por uns 2 minutos, e perguntou por que eu havia colocado um número "2" em minha equação de cálculo de reputação. :-) O problema é que a equação era herança de um trabalho anterior e, apesar de saber a influência do valor, não sabia o porquê "2" e não "3" ou "4". Pensei em responder que era o único primo par :-)))) Impressão nº2: É difícil achar alguém que esteja trabalhando na mesma coisa que você, no nível de detalhes que você está (adiante comento mais sobre isso, parafraseando o Prof. Kurose), em uma conferência de propósito geral (grande área de redes).

No coffee-break desse dia fui abordado por duas pessoas. Sim, é impressionante como as pessoas vão para essas conferências para fazer contatos. O primeiro era da universidade de Waterloo, o segundo era de Berkeley (depois fui descobrir que este era orientando do lendário Prof. Papadimitriou, autor do nosso livro de Teoria da Computação :-). Impressão nº3: Diferentemente dos congressos nacionais, as pessoas são muito mais intrusivas (no bom sentido) em eventos internacionais.

Para não me delongar muito nesse post, vou falar sobre os principais painéis da conferência e dar a visão geral dos tópicos abordados nos artigos apresentados. Na parte da tarde do workshop, aconteceu um keynote e um painel muito show! O keynote, intitulado "10 Things I Wish My Advisor Had Told Me", foi apresentado pelo Prof. Kurose e recomendo fortemente sua leitura. Em resumo, ele fala para evitar áreas de pesquisa populosas pois você provavelmente precisaria ser um gênio para conseguir competir com quem já está há muito mais tempo na área (palavras do próprio professor). A idéia é chegar no tópico antes de ele estar crowded. Ele fala da importância de estudar matemática e ter um conhecimento multi-disciplinar. Ele ressalta também que ao final da sua dissertação/tese, você é o cara que mais deve entender daquele assunto no mundo :-).

Já o painel foi um pouco polêmico e pelo seu título, "How to be successful in research?", não é difícil de imaginar o porquê. Cada um dos painelistas apresentou algumas idéias que ao meu ver foram de encontro com o nossas métricas de avaliação (QUALIS). Não sei agora com a reforma, mas todos os painelistas enfatizaram que é muito melhor um artigo em uma boa conferência, do que vários em conferências "meia boca". Até o brasileiro Edmundo Souza e Silva (UFRJ), no painel, corroborou com a idéia. É, eu também concordo, mas a realidade que enfrentamos aqui no Brasil é outra. O mundo não é cor-de-rosa e os pesquisadores brasileiros sabem do que eu estou falando. O último a falar foi o Prof. Kurose que, fazendo jus à fama, simplesmente fechou com chave de ouro. Enquanto os demais painelistas apresentavam seus slides, ele preparou os dele :-))) Isso mesmo, ele apontou e criticou TODOS os quatro painelistas anteriores em algum ponto, com direito a foto dos mesmos e tudo mais. O seu título era "Mitos e Verdades". :-)))))) MUITO BOM! Impressão nº4: A dificuldade que as pessoas têm em fazer pesquisa, definir problema, modelar (etc) é igual em todo lugar. No entanto, eles (EUA) saem na frente por ter mais apoio ($) e, consequentemente, mais aceleração.

O último painel que assisti foi o "What Are The Hot Topics in Networking?". Entre os painelistas estavam os Professores Don Towsley e Keith Ross. Esse último atraiu a atenção das câmeras. (Ele é co-autor do livro de redes junto com o Prof. Kurose, para quem não sabe.) Cada um dos painelistas puxou um pouco da sardinha para seu lado. Tópicos como Network Coding, Delay Tolerant Networks, Wireless Sensor Networks, Peer-to-Peer e Social Networks concentraram maior parte dos comentários. Esses dois últimos bastante tocados pelo Prof. Ross (tenho fotos dos seus slides e os do Prof. Towsley, quem quiser me passa um email). Ele atesta que redes sociais+P2P pode ser uma combinação promissora para resolver diversos problemas de sugurança em redes entre pares. Fica fácil resolver o problema quando assumimos uma grande rede de relacionamentos e confianças entre as partes, né? :-\ Eu sou totalmente preconceituoso quanto a essa frente, mas isso já seria assunto para outro post. Impressão nº5: Tópico quente para alguém é aquele em que ele pesquisa.

Fechando o post, deixo minha impressão geral sobre o evento. Praticamente todos os trabalhos aceitos para publicação no INFOCOM precisam ter uma boa modelagem matemática. Mais que isso, eles precisam (e apresentaram) uma validação experimental no mínimo razoável. Quando não, extensas simulações eram apresentadas. É muito difícil encontrar trabalhos de brasileiros lá. Esse ano teve apenas um do Prof. Otto (UFRJ) e ano passado, salve um engano, um do Prof. Edmundo Souza e Silva (UFRJ). Antes disso, acho que só em 1998. :-))) Achei muito estranho não encontrar trabalhos sobre Grades Computacionais, não sei se isso é comum no INFOCOM. Sobre a qualidade técnica dos trabalhos, não é difícil encontrar trabalhos igualmente bons no LSD e na UFRGS (onde atualmente pesquiso), a diferença é que pecamos um pouco na modelagem analítica. E então, por que não publicamos lá? Ouvi comentários que os brasileiros preferem aproveitar o timing e submeter seus trabalhos em conferências igualmente qualificadas (segundo o QUALIS) e que tenham mais chances, ao invés de "perder" o tempo esperando para, no final, correr o alto risco de ter seus trabalhos rejeitados.

quarta-feira, 22 de abril de 2009

LSD, BDIM, Empregos e Planejamento de Capacidade

Antes de começar o meu memory dump sobre os tópicos do título, gostaria de agradecer a Nazareno pelo convite de postar no blog e mandar um abraço para todos do LSD.

- Quando aprendi sobre planejamento de capacidade, a lei de little, utilização de recursos, escalabilidade e outras coisas na minha disciplina de Análise e Desempenho de Sistemas Discretos na UFCG não percebi onde se aplicava toda aquela matemática. Algum tempo depois, fui alocado para pesquisar justamente essas coisas no LSD, só que focadas em grades computacionais, nesta época aprendi sobre Business Driven IT Management (BDIM). Resumindo uma história longa, a forma mais simples de se entender BDIM é pegar tudo aquilo que você aprende sobre planejamento de capacidade (tempo de resposta de servidores, requisições processadas, utilização etc) e coloca uma nova variável dinheiro no meia da coisa. Agora você planeja sua infraestrutura de TI pensando no seu lucro. Nesta pesquisa, mostramos como uma grade entre pares (P2P) pode reduzir o custo de uma infraestrutura de TI para o processamento de cargas, devido ao compartilhamento gratuito de recursos, ideia que pode ser expandida para outros serviços P2P como live-streaming, compartilhamento de dados ou CDNs. Agora, eu entendia para que servia aquela matemática.

Um ano depois, estava iniciando o meu mestrado na UFMG e assistindo as mesmas aulas de análise de desempenho só que com outro nome. Um aluno (Itamar Viana) da disciplina pergunta se aquela coisa servia para ganhar dinheiro, em outras palavras se ele seria contratado por saber aquelas coisas todas, me lembrei do caso de BDIM e pensei em falar sobre ele, mas BDIM não dava empregos trabalhava com modelos em cima de dinheiro. Embora seja bastante bacana aquela modelagem toda, a pergunta se aquilo empregava alguém não foi claramente respondida, é uma pesquisa interessante com diversas conferências e grupos de interesse no mundo, mas vai empregar alguém? A reposta é sim, e aprendi isto alguns meses depois. O mesmo aluno da dúvida acima foi empregado em uma empresa que faz distribuição e processamento de vídeos, soube que ele estava se dando bem e um dos motivos eram os seus conhecimentos de planejamento de capacidade, algo que não era aplicado pela empresa, que ele continue fazendo sucesso.

Itamar me apontou para a seguinte entrevista recém publicada no HighScalability que serve para termos uma ideia do novo livro sobre planejamento de capacidade escrito por John Allspan, gerente de operações do Flickr, livro que ele está lendo para seu trabalho. O livro aparenta ser uma "hands on" em capacity planning, e pela entrevista parece que aquela modelagem toda, embora seja correta e aplicável, acaba sendo deixada para trás devido as correrias e dinamicidade do mundo real, o autor argumenta que se necessita de uma ideia ágil para planejamento de capacidade. Mas o interessante é que pelo o ponto de vista do autor, o mundo já é BDIM e o custo é quem guia o seu gerenciamento de capacidade. O autor também fala sobre clouds contrastando com planejamento de capacidade, mostrando que a pesquisa que fiz parte (e continua no LSD) estava na crista da onda. Acho interessante ver casos onde a pesquisa e empresa parecem andar juntos, embora tenham opiniões um pouco divergentes.

Atualmente duas dúvidas permanecem na minha cabeça. A primeira é devemos simplificar nossos modelos de pesquisa e ficar mais próximo do modelo ágil do mundo empresarial, tendo assim uma pesquisas mais aplicada. A outra é se o mundo empresarial vai um dia fazer uso das nossas ideia de planejamento de capacidade como a de um modelo híbrido usando P2P.

ps: Devido a este convite achei este software (usado no Flickr) bacana para fitting de curvas com picos - http://www.unipress.waw.pl/fityk/

terça-feira, 21 de abril de 2009

Amanhã 22/04 - Conversa LSD

Oi Pessoal, prosseguindo com a tradição, amanhã teremos mais uma Conversa LSD, às 14h.

Desta vez conversaremos sobre as lições aprendidas durante o desenvolvimento do DDGfs, um sistema de arquivos distribuído em criação aqui no LSD desde o ano passado.

Além disto, para o vosso deleite, Giovanni Surubim apresentará suas experiências (truques, magias e casos de contorno) no uso do PlanetLab

Segue abaixo uma descrição mais pormenorizada sobre o DDGfs.

Era um noite escura e tenebrosa ... Projeto e implementação de um sistema de arquivos para uso corporativo

O DDGfs é um sistema de arquivos distribuído que utiliza uma rede corporativa de desktops. Este sistema está em desenvolvimento no LSD desde 09/2008 e será disponibilizado publicamente em breve. Na conversa dessa quarta serão apresentadas as lições aprendidas durante o processo de desenvolvimento do DDGfs.

Ainda, será mostrada uma visão geral do projeto assim como novas funcionalidades que estão em desenvolvimento. Por fim, serão discutidos alguns resultados experimentais sobre o desempenho do DDGfs que mostram sua equiparação com outros sistemas de
arquivos corporativos.

Individual and Social Behavior in Tagging Systems

Capitaneados por Elizeu Santos-Neto, ilustre colaborador do LSD a distância (atualmente doutorando no NetSysLab da UBC), eu, Matei, Adriana e David colaboramos em um artigo que foi aceito para a Hypertext 2009.

Em Individual and Social Behavior in Tagging Systems, nós analisamos o comportamento de usuários do CiteULike e Connotea a respeito de como eles compartilham itens a anotações sobre itens. Entre outras coisas, os resultados mostram que tipicamente dentre os itens adicionados às bibliotecas dos usuários em um dia, apenas uma pequena fração já existia no sistema. Isso implica que itens tipicamente são pouco compartilhados. Tags (ou anotações), por outro lado, são compartilhadas mais freqüentemente. A partir de observações como essas, o artigo traz uma série de recomendações para sistemas que se baseiam em explorar o comportamento de usuários em sistemas de tagging.

Seedboxes: pagando para compartilhar

A idéia básica de uma comunidade BitTorrent é que usuários compartilham recursos para distribuir conteúdo de forma eficiente. Embora geralmente o recurso compartilhado por cada usuário seja a largura de banda de seu próprio PC, esses dias tomei conhecimento de que é uma prática popular no BitTorrent alugar um servidor bem-conectado para agir como seu proxy na distribuição de conteúdo. Esses proxies são chamados nas comunidades de seedboxes (e podem ser alugados, por exemplo, aqui).

Um aspecto interessante é que uma das principais motivações dos seedboxes é a de permitir ao usuário cumprir com regras de compartilhamento impostas pelas comunidades. Como a eficiência na distribuição de conteúdo de uma comunidade depende da contribuição de seus usuários, várias comunidades impõem regras que exigem que os usuários contribuam uma determinada fração do que consomem da comunidade. Alguns usuários podem não ter largura de banda de upload ou uptime o suficiente para atingir as metas impostas pelas comunidades e aí, nesse caso, usar seedboxes é uma alternativa viável.

Outro aspecto é que se muitos usuários usam seedboxes, torna-se difícil para usuários que não os usam contribuir no mesmo 'ritmo', causando uma espécie de inflação na comunidade e potencialmente excluindo os que dispõem de menos recursos.

sexta-feira, 17 de abril de 2009

LSD no IM/BDIM 2009

No início de junho, eu (Paulo Ditarso) e Álvaro Degas iremos apresentar, respectivamente, os dois trabalhos abaixo no IM e no BDIM (realizado junto com o IM) 2009. Faremos prévias das apresentações em um data a ser definida no mês de maio.

Título: Using Heuristics to Improve Service Portfolio Selection in P2P Grids

A ser apresentado no 11th IFIP/IEEE International Symposium on Integrated Network Management (IM 2009)

Neste trabalho nós consideramos um sistema P2P que provê múltiplos serviços para os seus usuários, sendo que um mecanismo de incentivo promove colaboração entre os nós. Já foi mostrado que o uso de mecanismos de incentivo baseados em reciprocidade nesse tipo de sistema previne free-riding e, ao mesmo tempo, promove o agrupamento de nós que tenham interações mutuamente lucrativas. Por outro lado, uma característica que não foi suficientemente estudada nesse contexto é a seleção de portfólio de serviços. Normalmente os nós estão sujeitos a limitação de recursos, o que os força a selecionar apenas um subconjunto de todos os serviços que podem ser providos. Claramente, o subconjunto de serviços selecionado impacta no lucro que a grade retorna para os nós, visto que cada serviço vai ter um custo diferente e retornar uma receita diferente. Além disso, a receita gerada por um serviço é fortemente influenciada pelo comportamento dos demais nós, que por sua vez podem mudar no decorrer do tempo. Nesse trabalho nós exploramos o uso de heurísticas para selecionar o portfólio de serviços para ser oferecido pelos nós nesse tipo de grades computacionais. A principal contribuição desse trabalho é o uso de heurísticas para aumentar a lucratividade média dos nós e um estudo do impacto de algumas características do sistema sobre o comportamento das heurísticas.

Título: On the Evaluation of Services Selection Algorithms in Multi-Service P2P Grids

A ser apresentado no 4th IFIP/IEEE International Workshop on Business-driven IT Management (BDIM 2009)

Alguns trabalhos anteriores já mostraram que a lucratividade geral de um nó é fortemente dependente do conjunto de serviços que ele oferece. Portanto, o uso de algoritmos apropriados para seleção de serviços é crucial para se obter uma lucratividade melhor para os nós. Claramente, avaliar a eficiência de algoritmos de seleção de serviço é um importante aspecto na busca por soluções aplicáveis para este problema. Infelizmente, devido à complexidade e ao indeterminismo inerente ao sistema, normalmente é intratável a computação de soluções ótimas, mesmo para sistemas pequenos. Isso torna difícil a tarefa de avaliar a performance de algoritmos práticos baseados em heurísticas. Este trabalho propõe, como alternativa, um método de avaliação computacionalmente mais barato. A metodologia que nós propomos mapeia o problema da seleção de serviços numa instância do Problema da Mochila, tornando possível o uso de técnicas baseadas em força bruta para sistemas razoavelmente maiores. Dessa forma, ao imergir os algoritmos sob avaliação em uma configuração similar à que ele está sujeito quando opera em condições reais, é possível aferir sua eficiência comparada à uma solução ótima. Nós mostramos como essa metodologia pode ser usada ao avaliarmos dois algoritmos de seleção de serviço.

terça-feira, 14 de abril de 2009

Conversa LSD amanhã (15/04/2009)

Olá pessoal! Amanhã teremos mais uma Conversa LSD e nela será apresentado o NodeWiz-R, trabalho que vem sendo desenvolvido no meu Mestrado, aqui no LSD. Aproveitarei também para apresentar os resultados que foram obtidos com o simulador dessa solução.

Horário: 14h

O resumo do trabalho segue abaixo:

Nos últimos tempos, surgiram grandes oportunidades para compartilhamento de recursos e cooperação entre usuários através da Internet. O primeiro passo para que esse compartilhamento possa se dar é o conhecimento da existência dos recursos disponíveis. A descoberta de recursos é possível através da manutenção de um índice composto de informações sobre eles. Embora diversas soluções tenham sido propostas neste sentido, elas não oferecem um serviço capaz de lidar com recursos que possuem uma estrutura de representação complexa, além de não fornecerem suporte a consultas mais ricas e expressivas, que permitam combinar e correlacionar informações. Visando atender essa demanda, nós propomos o NodeWiz-R, uma solução para descoberta de recursos que permite indexar de forma eficiente, recursos distribuídos que possuem um modelo complexo de representação. O NodeWiz-R propõe o uso de uma camada relacional sobre um substrato peer-to-peer de forma a prover um índice escalável e expressivo, possibilitando ainda o suporte a consultas usando o padrão SQL.

Esperamos por vocês!
_____________________________