terça-feira, 8 de fevereiro de 2011

Você sabe como funciona um datacenter?

 

Hoje, uma grande preocupação das empresas que gerenciam datacenters é o consumo de energia. Cada vez mais servidores são necessários para suprir a demanda crescente de produtos online. E isso implica em mais espaço, mais banda, mais poder de processamento e também, mais energia tanto para suprir os computadores, quanto para fazer funcionar os sistemas de refrigeração.

“Antigamente, você pensava em um Data Center como um todo gelado. Hoje algumas áreas podem ser quentes e outras frias: onde o servidor toma um ar é frio e aonde ele joga o ar elas podem ser quentes, e você pode tirar esse calor de forma mais simples do Data Center. Então ele é um esquema que aumenta a eficiência do ar condicionado dentro do Data Center.”

Mas como aumentar a eficiência da refrigeração no datacenter? Uma das técnicas utilizadas é a de criar corredores quentes e frios, alternadamente.

“Hoje em dia, todos os servidores modernos, de classe, usados no Data Center, eles sugam o ar frio pela frente e jogam para trás, então basicamente corredor é quando os servidores ficam de frente para o outro na troca de ar frio. Os corredores quentes são onde o ar que sai dos servidores ele é levado para o teto do Data Center onde ele é retirado para ser refrigerado e enviado por baixo. Então esse ciclo traz auto eficiência para o processo de refrigeração e economiza energia elétrica.”

Hoje, o processador é o elemento que mais consome energia em um datacenter, seguido do disco rígido. A indústria tem se esforçado para aumentar a eficiência dessas peças. Os discos estão cada vez menores. Já os processadores se tornaram inteligentes, e consomem menos energia se tiverem menor carga de trabalho. A virtualização também é peça fundamental no processo de economia energética.

“A média de utilização do Data Center chega a 10% do servidor. Ai o trabalho da virtualização é diminuir o numero de servidores e fazer com que a utilização fique mais alta. Ou seja, um numero menor de servidores você consegue oferecer a mesma quantidade de fornecimento do serviço”.

Países frios, geralmente, levam vantagem nessa equação, uma vez que precisam de menos energia para refrigerar os ambientes. Mas por outro lado, o Brasil acaba se mantendo em uma posição confortável nesse ranking. 85% da energia que consumimos vem de usinas hidrelétricas. Portanto, energia limpa, que não emite CO2 para atmosfera.

“As empresas de data Center já estão pensando nisso, por dois motivos: Pela sustentabilidade e pelo corte de custos. Ou seja, uma coisa leva a outra e o Data Center esta acompanhando essa tendência do “Green Computing”.

Fonte: http://olhardigital.uol.com.br/produtos/central_de_videos/data-center-verde-tecnicas-para-consumir-menos-energia

segunda-feira, 7 de fevereiro de 2011

Parametrizando performance em VMs

Últimamente tenho lido muitos artigos relacionados a performance em VMs, como utilizo VMWARE e não recomendo outra coisa diferente disto estou disponibilizando um material que encontrei na internet. Hoje os profissionais de TI ainda associam a performance do host com a da VM hospedada no host. Com base nisso, a Quest Software lançou um whitepaper que mostra como conseguir um melhor desempenho em máquinas virtuais. é apenas uma introdução do assunto, que acredito poder ajudar a muito profissional que está iniciando no mundo da virtualização.

6740.Screen-shot-2010_2D00_12_2D00_02-at-5.29.34-PM

Para efetuar o download basta clicar na imagem.

quarta-feira, 12 de janeiro de 2011

A cooperação é fundamental para a segurança da internet

Para que as táticas de segurança ofensivas sejam bem-sucedidas na luta contra o cibercrime, é necessário que consumidores, pesquisadores de segurança, jornalistas, legisladores e a polícia cooperem. A colaboração de todos é fundamental na batalha contra os criminosos on-line.

A cooperação entre pesquisadores de segurança tem uma longa história. Os vírus de computador foram reconhecidos como um problema global desde o início, quando a indústria consistia, basicamente, em um punhado de pessoas que criavam ferramentas antivírus nos anos 80 e 90, predominantemente para PCs com sistema operacional Microsoft DOS.

Naquela época, o ritmo da propagação de vírus era muito diferente - eles trafegavam quase que exclusivamente via de troca de disquetes -, portanto os pesquisadores se encontravam várias vezes por ano para compartilhar coleções e descrições de vírus, normalmente em eventos de segurança. Nesse período, surgiram duas organizações: a Computer Antivirus Research Organization (CARO) e o European Institute for Computer Antivirus Research (EICAR).

A primeira tentativa de criar padrões na indústria de malware foi o CARO BASE, um banco de dados de texto que descrevia os vírus. Esse padrão, desenvolvido e mantido pela CARO, foi estabelecido de 1993 a 1994. O crescimento da internet e do e-mail em 1996 e 1997 permitiu que o malware se propagasse mais rapidamente, e isso também resultou no crescimento gradual dos números do malware. Então, os fornecedores de segurança precisavam de um intercâmbio mais rápido de informações e amostras.

Primeiro, as empresas de antivírus, que atualizavam seus produtos semanal ou mensalmente, passaram a fazê-lo diariamente e a coletar malware diariamente. Segundo, a indústria criou várias listas de e-mails de emergência. Elas permitiram que os pesquisadores dessas empresas se comunicassem durante epidemias globais. Um exemplo bem-sucedido dessa ação foi a Anti-Virus Emergency Discussion Network durante as epidemias globais criadas por W97M/Melissa (1999), VBS/LoveLetter (2000), W32/Nimda (2001) e, posteriormente, W32/Netsky, W32/Bagle e W32/Mydoom (2004).

Epidemias globais de malware por meio de worms de rede e e-mail eram comuns no período de 1999 a 2004. Quando ocorria uma epidemia, todas as empresas de segurança queriam fornecer proteção o mais rapidamente possível. A sincronização dos nomes de malware não era prioridade. Nesse estágio, testemunhamos o que provavelmente foi a primeira tentativa pública de regulamentar a indústria de antivírus.

O cenário de ameaças começou a mudar rapidamente por volta de 2003, quando o malware começou a se tornar comercial. Epidemias em grande escala de malware replicante tornaram-se raras. Em vez da autorreplicação, a própria internet proporcionou aos criadores de malware o mecanismo de entrega de que eles precisavam. Os vírus começaram a morrer como dinossauros, sendo substituídos por cavalos de Troia, pois o malware e a internet tornaram-se inseparáveis. Devido ao volume crescente de malware, o processamento automático do intercâmbio de amostras tornou-se comum.

Logo os cibercriminosos reconheceram que a internet era uma ferramenta útil para fazer dinheiro. Por isso, eles desenvolveram técnicas para se apropriarem de um número significativo de computadores para explorar as vítimas via de envio de spam, ataques de negação de serviço e outros métodos. Os criadores de malware se transformaram em controladores de redes de robôs (redes de bots ou botnets, compostas por programas maliciosos controlados remotamente, executados nas máquinas de vítimas incautas).

Grandes redes de bots, como storm e conficker, agora compreendem milhões de computadores. A rede de bots Conficker merece uma atenção especial. Essa rede de bots tem mais de cinco milhões de computadores zumbis, e os especialistas em segurança ainda discutem a que ela se propõe. Curiosamente, essa força imensa ainda não foi empregada por seus controladores. Sabemos, porém, que um esforço coordenado de fornecedores de segurança conseguiu limitar o tamanho dessa monstruosa rede maliciosa. As empresas de antivírus organizaram o Conficker Working Group e conseguiram derrubar um dos mais importantes mecanismos de comunicação incorporados no worm conficker. Isso é um ótimo exemplo de como a indústria de antivírus pode e deve cooperar quando está diante de ameaças comuns.

Hoje em dia, a maioria das empresas de segurança utiliza sistemas de robôs automatizados que inserem dados e amostras em tempo real e geram regras de proteção. Por esse motivo, a cooperação entre as empresas de segurança continua tão importante. Para sermos eficazes, precisamos também ter uma cooperação em tempo real, contando com o auxílio de robôs. Entretanto, os robôs têm dificuldades em processar informações que não estejam bem definidas e estruturadas. Por isso, para viabilizar intercâmbios de dados, as empresas de segurança uniram forças e criaram o Industry Connections Security Group (ICSG), um sistema de compartilhamento de dados com base em XML, com o apoio do Institute of Electrical and Electronics Engineers (IEEE).

Atualmente, as soluções antivírus incluem recursos para proteção contra todas as ameaças, como firewall, antispam, antiphishing, filtros de Web, controle dos pais, entre outros. Cada elemento de proteção contribui para o cenário geral capturando e transmitindo informações de segurança. Essas informações contêm dados, por exemplo, sobre quão comuns são as ameaças, sua temporização e distribuição geográfica. Esses elementos são essenciais, especialmente quando rastreamos os malfeitores em cooperação com a polícia.

As ameaças evoluem e as soluções de proteção também. Como resultado dessas evoluções, o teste comparativo tradicional de soluções antimalware com base na varredura de conjuntos de amostras não funciona mais. Esse entendimento levou à criação da Anti-Malware Testing Standards Organization (AMTSO), que publicou diretrizes para aprimoramento dos testes.

As diretrizes da AMTSO são um bom exemplo da cooperação entre vários órgãos: testadores, meio acadêmico, editores e fornecedores de segurança. Como podemos ver, a cooperação sempre foi muito valorizada pelas empresas de segurança. Sem ela, não estaríamos tão bem protegidos quanto estamos. É claro que ainda existem desafios a superar. Afinal, as empresas antimalware são concorrentes no mercado.

No entanto, o pessoal técnico que constrói e atualiza o software de segurança entende que apenas com a cooperação podemos controlar as forças criminosas na internet. A quantidade de malware criado agora é impressionante - o McAfee Labs recebe mais de 60 mil novas amostras todo dia. Cada amostra é analisada, mas a maior parte dessa análise hoje é realizada de maneira automática, e dados compartilhados dessa indústria desempenham um papel muito importante na definição da prioridade das pesquisas.

As empresas de segurança compartilham métodos sobre malware e informações sobre arquivos. Essa última é importante para assegurar baixos níveis de alarmes falsos, frequentemente chamados de falsos positivos. A qualidade de um programa antimalware está em diferenciar o malware dos arquivos legítimos. Esse trabalho é importante para dificultar o crescimento de malware.

No futuro, esses ataques serão mais sofisticados e dirigidos, como no caso do ataque Operação Aurora, no qual uma vulnerabilidade de dia zero no Microsoft Internet Explorer foi explorada para roubar informações valiosas de várias empresas dos Estados Unidos, entre elas a Google. Os atacantes da Operação Aurora utilizaram uma abordagem sofisticada - primeiro visaram a amigos e parentes daqueles que eles queriam comprometer. Em seguida, passaram para as empresas.

Muitos desses ataques provavelmente nem são percebidos - ou não chegam a ser comunicados -, mas ainda assim as empresas de segurança precisam conhecê-los para poder agir. É por isso que o compartilhamento de informações dentro e fora da indústria é tão importante. Somente reunindo os fragmentos desses quebra-cabeças podemos responder aos ataques dirigidos.

A necessidade dessa maior cooperação entre empresas de segurança e provedores de serviços de internet é fundamental. O compartilhamento de informações de segurança deve permitir que os provedores tomem providências quanto a endereços IP e sub-redes infectadas. Um dos problemas que enfrentamos é que alguns cibercriminosos acumularam dinheiro suficiente para assumir o controle de alguns provedores locais. Já vimos vários provedores (como ESTdomains13 e McColo14) serem fechados devido a suas condutas duvidosas. Infelizmente, essa tendência de investimento criminoso em provedores de serviços de Internet continuará, sem dúvida.

O que você pode fazer?


A grande pergunta com que nos deparamos é: Quem é dono da internet? São os malfeitores ou os benfeitores? Cada lado tem a convicção de que deveria estar no comando. Usuários de computador, profissionais de segurança ou administradores devem optar por compartilhar informações de inteligência com o fornecedor de segurança de sua confiança. Provedores de serviços de internet e fornecedor de segurança também precisam cooperar com esse compartilhamento. As autoridades políticas devem levar em consideração essas questões, ao elaborar leis. Mais do que nunca precisamos de uma cooperação internacional no policiamento da internet. Essa é a chave para o sucesso.

Fonte:http://imasters.com.br/artigo/19415/seguranca/a_cooperacao_e_fundamental_para_a_seguranca_da_internet/

sábado, 8 de janeiro de 2011

Gerenciamento das redes de comunicação: fundamental para a segurança das companhias

No mercado de Tecnologia da Informação, a criação da área de gerência de redes foi inicialmente impulsionada pela necessidade de monitoramento e controle dos dispositivos que compõem as redes de comunicação das companhias - equipamentos para tráfego de dados, servidores, no-breaks etc -, para, consequentemente, detectar falhas, alertar os gestores e permitir medidas preventivas ou corretivas.

Atualmente, as redes de computadores e seus recursos associados são fundamentais no ambiente corporativo, pelo fato de possuírem ferramentas que proporcionam o gerenciamento. Isso significa que o nível de falhas de desempenho considerado "aceitável" está diminuindo cada vez mais, com tendência a ser zerado, ou seja, sem indisponibilidade da rede corporativa.

Estatisticamente, enquanto 30% dos custos de uma rede estão diretamente associados à aquisição de hardware, os 70% restantes dizem respeito à manutenção e ao suporte da mesma. Por esse motivo, o gerenciamento da rede torna-se uma atividade que contribui decisivamente para o funcionamento contínuo dos sistemas, garantindo que a qualidade dos serviços oferecidos mantenha-se, pelo maior tempo possível, dentro dos Acordos de Níveis de Serviço (SLAs).

Os principais benefícios oferecidos pelos sistemas de gerenciamento são: interoperabilidade das redes, alertas sobre possíveis problemas, captura automática de dados essenciais para eficiência corporativa, gráficos de "eventos" da rede e gráficos comparativos entre capacidade da rede x consumo médio e pico.

Para proporcionar tais benefícios, existem cinco áreas de gerenciamento, conforme determinação do Setor de Normatização das Telecomunicações (ITU-T): configuração, responsável pela interconexão da rede e dos dispositivos gerenciados; falhas, área com objetivo de garantir o funcionamento contínuo da rede, dos dispositivos e de seus serviços; desempenho, que garante a eficiência da rede e dos dispositivos; segurança, que garante o sigilo das informações que trafegam na rede corporativa; contabilidade, que determina o custo de utilização da rede, dos dispositivos e seus recursos; e SLA, parte do contrato que define o tempo de entrega ou excelência de um serviço.

Para manter o grau de excelência dos itens acima, é de vital importância que as empresas tenham planos de investimentos contínuos em gerenciamento, com foco nos aplicativos de monitoramento, considerados essenciais para garantir um ambiente seguro, estável e confiável.

Os aplicativos de monitoramento fornecem recursos para análise de tráfego, monitoramento de links, verificação de serviços, servidor de internet e banco de dados, por exemplo, e até de equipamentos que suportam o Protocolo Simples de Gerência de Rede (SNMP).

A principal funcionalidade proporcionada por esses aplicativos é o fornecimento de informações estratégicas, tanto para a atuação proativa das equipes de suporte como para a governança de TI.

Um ambiente que possui um monitoramento confiável, mesmo que seja somente da infraestrutura de TI ou estendido até o nível da aplicação, agregará valor ao administrador de sistemas, que poderá gerir seu ambiente sem imprevistos, sabendo previamente como controlar seus SLAs.

Fonte: http://imasters.com.br/artigo/19294/gerenciadeprojetos/gerenciamento_das_redes_de_comunicacao_fundamental_para_a_seguranca_das_companhias/

terça-feira, 23 de novembro de 2010

O quanto você sabe sobre segurança na Internet?

F-Secure tomou as ruas de San Francisco para ver o quanto as pessoas realmente sabem sobre segurança de computadores, vírus e outros malwares.
Algumas das respostas podem surpreendê-los.


quarta-feira, 27 de outubro de 2010

O futuro do IPv6 e o fim do IPv4

Artigo tirado do site www.imasters.com.br, muito esclarecedor e informativo.

temos um eventual colapso na Internet por conta do esgotamento de endereços IP. De fato, é verdade. De acordo com o IANA (Internet Assigned Numbers Authority, entidade que regula os números IP na Internet), seus IPs estarão esgotados até 2011, e os endereços dos RIRs (Regional Internet Registry, ou Registros Regionais da Internet, órgãos responsáveis pela alocação de IPs nos continentes) ainda terão uma sobrevida de mais um ou dois anos.

Os quadros abaixo demonstram historicamente a alocação dos endereços IP.

Fonte: http://arstechnica.com

Analisando rapidamente as figuras, é possível notar que a alocação de blocos IP tem-se dado de forma exponencial. Isso se deve muito ao surgimento de novas tecnologias aways-on (dispositivos que ficam conectados o tempo todo), principalmente smartphones. De acordo com o site TELECO, só o Brasil terminou o mês de agosto com 15,1 milhões de celulares 3G, e isso não representa nem 10% do total de celulares do país. Ou seja, esse número tende a crescer muito e junto com ele cresce também a demanda por endereços IP. Mas como lidar com essa demanda visto que os endereços IP estão se esgotando?

A solução para esse cenário é a utilização de um novo protocolo Internet, que tem capacidade de endereçar mais hosts na grande rede. Esse é o IPv6, de que provavelmente você já ouviu falar.

O atual protocolo IPv4 utiliza 32 bits para endereçar um único dispositivo na Internet. Um endereço IPv4 pode ser representado em binário da seguinte forma:

11000000.10101000.00000001.00000001

E o endereço IPv6 é representado assim:

00100001:11011010:00000000:11010011:00000000:00000000:00101111:00111011

00000010:10101010:00000000:11111111:11111110:00101000:10011100:01011010

Ficou claro como o IPv6 consegue solucionar o problema da limitação da quantidade de endereços IP? Cada combinação de 0 e 1 representa um dispositivo a ser endereçado. O número de endereços que o IPv4 pode prover é de 2^32 (pouco mais de 4 bilhões de endereços), enquanto o IPv6 pode fornecer 2^128 endereços IP, o que equivale a 79 trilhões de vezes o espaço disponível no IPv4, ou 3,4*10^27 endereços por habitante do planeta.

Mas e o NAT?

Há quem defenda a permanência do NAT (Network Address Translation, também conhecido como masquerading) como alternativa ao esgotamento de endereços IPv4. O NAT consiste basicamente em você ter uma rede privada em sua empresa ou em sua casa, utilizando endereços IPs privados que toda rede doméstica pode utilizar e, para ter acesso à Internet, todo o tráfego dessa rede passaria por um gateway e trafegaria na Internet utilizando apenas o IP público (ou real) desse gateway.

Realmente é uma solução funcional, mas quebra o modelo de comunicação fim-a-fim concebido para a Internet. Um dispositivo na web não consegue se comunicar diretamente com um host em uma rede privada. Há solução para isso? Sim, mas a que custo?

Optar por continuar utilizando o IPv4 seria muito caro e complexo. Os roteadores teriam que ter um poder de processamento muito maior para lidar com todo o overhead gerado pelas operações de troca de trafego. Uma das inúmeras vantagens do IPv6 (que veremos em um próximo artigo) é desonerar os roteadores. O cálculo do MTU (Maximum Transmission Unit - tamanho máximo da unidade de dados que um enlace permite trafegar), por exemplo, passa a ser feito na origem do pacote, e não mais nos roteadores. Além disso, tem a questão da segurança, o IPSEC não funciona bem com NAT. No IPv6, ele funciona sem restrições.

E como anda a implantação do IPv6?

Não há plano B para o esgotamento dos endereços IPv4. Ou adotamos o IPv6 ou vamos sofrer com redes complexas, de baixo desempenho e limitadas.

Sabendo disso, o governo dos EUA divulgou, no final de setembro de 2010, um plano para atualizar para IPv6 todos os sites federais até setembro de 2012. Anos atrás, em 2005, o mesmo governo determinou que todas as agências federais comprassem equipamentos com suporte ao novo protocolo e deu prazo até junho de 2008 para que elas demonstrassem conectividade IPv6 em seus backbones.

No Japão e na Suécia, os governos estão dando incentivos fiscais que chegam até 100% nos produtos que são produzidos em solo nacional que estejam prontos para suportar o IPv6.

O Brasil está um pouco atrasado em relação a países da própria América do Sul, como é o caso do Chile, por exemplo. Mas existem instituições que estão trabalhando forte na implementação do protocolo. É o caso da Universidade Federal de São Carlos, que é a primeira universidade brasileira a tornar o IPv6 disponível em toda sua rede.

Marcelo José Duarte, responsável pelo projeto IPv6 na UFSCar, acredita que em um determinado momento todas as instituições e empresas deverão estar prontas para o IPv6. Com a implantação já realizada, não teremos impactos significativos quando o novo protocolo estiver de fato implementado em toda a Internet.

A Alog, empresa brasileira de hosting gerenciável, anunciou no final de 2009 a utilização de IPv6 em sua rede, e seus investimentos chegam à ordem de R$ 1 milhão em infraestrutura para suportar o protocolo.

Os dados estatísticos acerca da utilização do IPv6 na América Latina e em outros continentes podem ser consultados em http://www.ipv6.br/IPV6/ArtigoEstatisticaIPv6 .

Eu tenho trabalhado em alguns testes de uso do IPv6, e também sei que alguns provedores como a Telefônica já preparam alguns pilotos com os serviços da Speedy. Então teremos novidades logo em breve.

Conclusões

Segundo pesquisa realizada pela Frost & Sullivan (www.frost.com - instituição internacional de consultoria e inteligência de mercado), 7 trilhões de equipamentos vão estar conectados à web. Não há como imaginar esse cenário sem a implementação do IPv6 para endereçar esses dispositivos.

O IPv6 não pode ser encarado como uma aventura tecnológica e sua adoção não pode ser tardia, mas tem de ser feita com responsabilidade. Os recursos estão disponíveis, a grande maioria dos equipamentos de rede hoje vem com suporte IPv6 de fábrica e os novos sistemas operacionais também já se comunicam através do protocolo.

A transição deve ser bem projetada para que não seja traumática. É bom lembrar também que o IPv4 não irá sumir de uma hora para outra, os dois protocolos irão coexistir por um bom tempo, mas é importante destacar que o IPv4 já começa a ser uma barreira para o uso de alguns serviços, e que o IPv6 abre um leque de novas opções tecnológicas, que vão permitir que novas tecnologias deslanchem de vez.


Fonte: http://imasters.com.br/artigo/18471/redes/o_futuro_do_ipv6_e_o_fim_do_ipv4/