138 views 20 mins

Tecnologia 25/11/2016

em Tecnologia
quinta-feira, 24 de novembro de 2016
Big-Data 24 11 temproario

Dados, informações e ação

Uma das vantagens de ser um veterano com 30 anos de TI é que posso valorizar certas consistências no setor. E, às vezes, esse prazer vem com uma generosa dose de ceticismo

Big-Data 24 11 temproario

Leon Adato (*)

Por exemplo, o termo “big data” é a palavra da moda agora, bem no início da lista com outras expressões queridas das ofertas de fornecedores de TI. Mas é claro que “big data” existe há muito mais tempo do que levou para chegar às listas de “como podemos usar isso para vender?” dos departamentos de marketing. Na verdade, o conceito remonta a meados dos anos 1990.

No entanto, este não é um artigo sobre a história do termo “big data”.

O motivo de eu trazer à tona a história desse termo é o contexto. Na época em que John Mashey e seus amigos estavam sentados à mesa de almoço da Silicon Graphics e aplicaram o termo de acordo com nossa compreensão atual de coleta e armazenamento de dados, armazenar um terabyte de dados custava em torno de US$ 280 mil. Isso presumindo, é claro, que você tivesse uma matriz em que coubessem tantas unidades. Lembre-se que foi em 1997 que a IBM lançou sua unidade de disco rígido “Titan”, que contava com 5 bandejas de 3,5″ que sustentavam o que então era uma enormidade: 16 gigabytes de dados.

Por isso, tenho de me perguntar, novamente com um certo ceticismo e sarcasmo, em que tamanho eles estavam pensando quando diziam big?

De qualquer forma, era o consenso geral — como já havia sido muito antes do advento dos próprios computadores — que dados e informações eram coisas muitíssimo diferentes. Os dados, sejam pequenos, médios ou econômicos, podiam geralmente ser encontrados em todos os lugares e coletados pelo preço de lápis e papel. Informações, por outro lado, exigiam um pouco mais de esforço.

Voltando aos dias atuais, o ditado “você pode ter dados sem informações, mas não pode ter informações sem dados” nunca foi tão óbvio ou verdadeiro. Somos inundados em um mar de dados, alimentado por rios caudalosos como a Internet das coisas, a computação móvel e as mídias sociais. O objetivo do big data é canalizar essas águas turbulentas para extrair insights importantes.

No entanto, este também não é um artigo sobre os objetivos ou oportunidades representados pelo big data.

Há quase 20 anos, minha especialidade no campo de TI tem sido o monitoramento e o gerenciamento de sistemas. Os que compartilham minha paixão por encontrar formas cada vez mais novas e criativas de determinar quando, como e se algo assustador aconteceu a um servidor compreendem que a relação entre dados e informações não é realmente uma dicotomia. É uma tríade.

É claro que o bom monitoramento começa com os dados. Uma grande quantidade deles, coletados regularmente de uma variedade de dispositivos, aplicativos e fontes no data center. E é claro que transformar esses dados em informações significativas — gráficos, quadros, tabelas e até medidores de velocidade — que representam o estado atual e a integridade dos serviços essenciais é o lado trabalhoso da tarefa.

Mas, a menos que essas informações levem à ação, tudo isso não resulta em nada. E é disso, meu paciente leitor, que trata este artigo: a importância dessa etapa adicional de transformar o insight baseado em dados em comportamento prático. O que me surpreende é como esse aspecto é pouco valorizado. Deixe-me explicar:

Digamos que você tenha configurado diligentemente seu monitoramento para coletar dados de disco rígido de todos os seus servidores essenciais. Você não está só coletando tamanho de disco e espaço usado, mas também extraindo estatísticas sobre IOPS, erros de leitura e de gravação.

Isso são dados.

Agora, digamos que sua tecnologia de monitoramento sofisticada e robusta faça um pouco mais, não apenas convertendo essas métricas em quadros e gráficos bonitos, mas também analisando os dados históricos para estabelecer linhas de base de modo que seus alertas não apenas sejam acionados quando, por exemplo, o uso do disco passar de 90%, mas, em vez disso, quando o uso do disco saltar de 50% do normal por um determinado período.

Isso são informações.

Digamos que você aplique esse monitoramento a todos os 5 mil servidores críticos e comece a “desfrutar” de cerca de 375 tíquetes de “disco cheio” por mês.

Essa, infelizmente, é a situação normal na maioria das empresas. É o ponto em que, como engenheiro de monitoramento (ou pelo menos, a pessoa encarregada do monitoramento do servidor), você começa a notar os olhares sombrios e sorrisos de desdém mal disfarçados de colegas que foram acordados às 2h da madrugada pelo “seu” monitoramento.

Então, o que está faltando? A resposta está em uma simples pergunta: E agora? Depois que você e sua equipe de servidor discutiram os detalhes do alerta de disco cheio, a próxima coisa a fazer é se perguntar: “O que devemos fazer agora? Qual é o nosso próximo passo?” Nesse caso, provavelmente envolveria limpar o diretório temporário para verificar se isso resolve o problema.

E a próxima etapa lógica a partir daí é a automação. Muitas vezes, a mesma plataforma de monitoramento que faz estardalhaço a respeito de um servidor estar inativo às 2 da madrugada pode limpar esse diretório temporário para você. Bem na hora, enquanto você está em sono profundo. Depois, se (e apenas se) o problema persistir, um tíquete será gerado envolvendo um ser humano. E esse ser humano saberá que antes que seu precioso sono fosse interrompido de forma tão rude, o diretório temporário já foi limpo, então se trata de algo um pouco mais sofisticado que isso.

Esse tipo de ação automatizada não é difícil de compreender nem supercomplicada de estabelecer. Mas, nos ambientes em que eu a implantei pessoalmente, o resultado foi uma grande redução de 70% nos tíquetes de disco cheio.

E a vantagem desse tipo de pensamento vai além da redução dos tíquetes. Na verdade, essa redução representa economia de tempo: horas de trabalho produtivo ou horas extras valiosas. Ela também representa a confiança reconquistada, pois o monitoramento dos sistemas se torna uma fonte de insights em vez de interrupções e uma força multiplicadora por causa de sua capacidade de reagir de forma rápida e confiável em todos os momentos.

Ela também mostra o poder da ação para amplificar as informações. Ao remover incidentes facilmente resolvidos do fluxo de eventos, agora é possível ver a floresta em vez das árvores e detectar padrões de falha mais complexos. E isso, por sua vez, significa mais oportunidades de ação no futuro.

Após 30 anos em TI, adquiri, além de minha dose saudável de ceticismo, a certeza de que sempre há algo mais a ser feito.

(*) É gerente técnico da SolarWinds.

A relevância da segurança de dados nos negócios

gestao-TI-23-importancia-seguranca-informacao temproario

Já pensou na infinidade de dados confidencias e informações preciosas que seus negócios e de seus clientes possuem? Com certeza, nenhuma empresa gostaria de perdê-los. Isso traria danos à reputação da companhia e logicamente levaria a perdas financeiras. Um estudo recente da The Computing Technology Industry Association (CompTIA) apurou que, no último ano, 87% das organizações no Brasil experimentaram ao menos uma violação de segurança cibernética. Com o crescente aumento dos negócios no meio digital, a demanda por armazenamento das informações de modo eficaz e seguro vem forçando as empresas do segmento de dados a evoluírem na forma como armazenam, recuperam e protegem as informações vitais para o negócio de seus clientes.
No Brasil o custo da violação de dados gera grande perda financeira, que poderia ser investida em geração de emprego, infraestrutura, capacitação de profissionais, pesquisa e desenvolvimento, entre outros. A realidade em que vivemos é a tecnológica. É fato: todos vivem conectados e utilizam uma enorme quantidade de dados o tempo todo, seja para um fim corporativo ou pessoal. Vale enfatizar que existem soluções para minimizar o risco de violação de dados.
Quando se fala em segurança da informação, é possível imaginar uma série de mecanismos de proteção para cada camada onde a informação resida ou transite. A proteção e confidencialidade dessas informações são exigidas pelos gestores do negócio e claro, pelos seus clientes. Esse é um grande desafio dentre outros tantos que suscitam a preocupação dos profissionais de TI.
Para cada camada dentro de um datacenter existe um mecanismo de proteção. Em relação ao hardware podemos citar o bit locker, já ao pensar em software, existe a proteção por senhas, encriptação de conexões, tunelamento seguro, dentre outros. Há, ainda, o sistema gerenciador de bancos de dados, peça-chave nesse fluxo de segurança, uma vez que é a última barreira entre quem pretende obter informações de forma indevida. Assim, caso todos outros mecanismos de proteção falhem, cabe ao banco de dados manter a proteção e abstração dos dados.
Nesse sentindo, existem opções eficientes de banco de dados que contam com características relevantes para segurança, como: Private Data Base (PDB) – mecanismo de proteção lógica dos dados que exibe apenas os dados pertinentes ao usuário conectado, Transparent Data Encryption (TDE) – outro mecanismo que tem a capacidade de proteger as informações através de criptografia. Além disso, também existem os algoritmos de encriptação e assinatura digital rigorosa para detectar e bloquear qualquer tentativa de manipulação dos dados. Ainda há a possibilidade de regras e privilégios para atribuir permissões de atualização, leitura, escrita e execução nos dados e objetos contidos em suas bases, por meio de mapeamento de grupos de usuários, perfis de acesso e acessos a objetos em banco de dados.
Ao alinhar as boas práticas de segurança às tecnologias mencionadas acima, é possível obter excelentes níveis de proteção de dados. Novamente, um banco de dados tem papel fundamental nesse processo e é preciso dedicar-se à esta escolha. Soluções que viabilizam integração com sistemas legados, fácil migração e segurança são fundamentais.
Apesar de especialistas afirmarem que o ritmo da recuperação econômica brasileira será mais lento, é importante estar preparado para enxergar o Brasil com um forte potencial de crescimento. Claro, é necessário planejamento estratégico com soluções integradas para se reinventar e buscar novas alternativas para os negócios, mas os ventos são otimistas.

(Fonte: Ronaldo Viana é Especialista em Banco de Dados da TmaxSoft Brasil, multinacional coreana provedora de softwares para infraestrutura de TI).

Internet das coisas: você não está protegido só porque não tem

Carlos Rodrigues (*)

A maioria das grandes empresas não conta com câmeras WiFi ou outros gadgets de internet das coisas que possam sofrer algum ataque. Isso, no entanto, não significa que as organizações não tenham de se preocupar com ataques geralmente direcionados à internet das coisas

No último mês, a empresa fornecedora de serviços de DNS Dyn sofreu um ataque que prejudicou serviços como Airbnb, Netflix, Paypal, Spotify e Twitter, entre outros. O protagonista da ação foi o malware Mirai, que tira vantagens de uma série de vulnerabilidades de dispositivos de internet das coisas para comprometer aqueles que usam configurações de fábrica ou credenciais de acesso com senhas estáticas.
A falta de dispositivos de internet das coisas em uma empresa não é garantia de que um malware desse tipo não possa se aproveitar desses mesmos erros de segurança. Várias vulnerabilidades já encontradas em câmeras WiFi, por exemplo, também aparecem em uma série de equipamentos simples de classe empresarial.

Conheça alguns erros que colocam os negócios em risco:

Perímetro desprotegido
Este ano, a Cisco divulgou uma vulnerabilidade conhecida como ExtraBacon, que permitia à hackers a execução de códigos remotamente em um de seus produtos de firewall. Em julho, uma vulnerabilidade do tipo zero-day em um produto da Juniper permitia que hackers monitorassem o tráfego interno da rede.
Mais preocupante que isso talvez seja o potencial dos hackers de atacar o firmware – o código de hardware do qual roteadores, telefones, laptops e outros gadgets dependem. Como o firmware não é assinado digitalmente, os hackers podem alterá-lo para conter um malware especial para tomar o dispositivo.
Um funcionário de uma empresa de data center trabalhando para um grupo de cibercriminosos pode carregar o firmware com malware em um roteador, por exemplo. Um grupo de cibercriminosos pode ainda atacar o site de um fabricante de roteadores e trocar um bom firmware por uma versão maliciosa que pode ser baixada por milhares de roteadores e firewalls.
Diante dessas vulnerabilidades, o perímetro acaba em perigo e as ferramentas de defesa podem fazer muito pouco por esse tipo de problema.

Configurações de fábrica
É comum vermos consumidores tratando seus roteadores e outros dispositivos conectados à internet como torradeiras ou outros eletrodomésticos – plugam na tomada e esquecem.
Infelizmente, mesmo os roteadores mais fáceis de usar e livres de manutenção precisam de atenção, incluindo a mudança das configurações de fábrica para adicionar senhas mais complexas.
Quando esse tipo de comportamento é adotado nas empresas, as consequências podem ser graves. Em 2014, por exemplo, a Verizon notou, em ataques a pontos de venda, que os hackers escaneiam portas públicas e então adivinham senhas fracas para o servidor ou dispositivo de ponto de venda – incluindo aqueles com senhas nunca antes alteradas e senhas óbvias como “admin1234”.
Os hackers sempre vão tirar vantagem de softwares corporativos internos com configurações de fábrica nunca alteradas. Infelizmente, isso é algo comum. A TI vive sob pressão para manter o funcionamento rápido de aplicações e sistemas e, por isso, contas com configurações de fábrica e senhas falsas são mantidas em atividade por uma questão de conveniência.
Por isso, além de contar com um plano para quando os hackers ultrapassarem suas primeiras linhas de defesa, também é importante contar com controles de segurança para monitorar e detectar invasores.

(*) É gerente regional da Varonis na América Latina