Visibilidade de rede: é preciso separar realidade da ficçãoDurante os últimos dois anos, temos assistido a uma ampliação crescente na consciência do mercado sobre os benefícios de enxergar a rede a fundo para resolver desafios prementes tanto nas operações de segurança como em outras áreas da TI – até mesmo devido ao crescimento exponencial dos fluxos de dados e das novas e complexas configurações nas empresas. Apesar disso – e como as tecnologias se aprimoram rapidamente, para atender necessidades ainda emergentes – alguns equívocos sobre o tema são recorrentes Ananda Rajagopal (*) Um fundamento do mercado neste segmento é que se faz necessário conhecer a capacidade e demandas de processamento das ferramentas que podem consumir o tráfego de rede, mas isso não necessariamente corresponde à velocidade da rede. Muitos clientes são inicialmente atraídos pelo mercado de visibilidade para suprir o desejo de ‘tocar’ o tráfego em alguns pontos da rede a fim de proteger seus valiosos recursos. Mas ao conhecerem melhor as soluções disponíveis no mercado e a limitação das ferramentas de segurança e gestão diante do mar de dados e dos fluxos complexos, estes clientes se convencem de que apenas entregar um raio-X geral do tráfego a esses recursos é insuficiente para oferecer eficiência e pode até mesmo sobrecarregar as ferramentas se a arquitetura de visibilidade não é projetada com cuidado. Desta forma, uma solução de visibilidade líder de mercado deve usar uma estrutura hierárquica para assegurar o tratamento da informação, de forma que somente o tráfego mais relevante e adequado para maximizar a eficiência da gestão será entregue às ferramentas certas. Chegamos a um nível de complexidade em ambientes corporativos, com diversidade de recursos e uma infinidade de acessos à rede das mais variadas naturezas, que as tecnologias tendem obrigatoriamente a avançar no sentido de: 1. Filtrar os fluxos de interesse a partir de um universo de dados e padrões, para que sejam de fato assertivos, a partir de um recorte específico do tráfego, como uma ‘radiografia’ com lente de aumento; para isso, e como cada cliente tem sua dinâmica, pesquisas e atualizações das tecnologias pelos fabricantes são essenciais 2. Enviar os fluxos de tráfego selecionados para as ferramentas certas, que, por sua vez, farão seu papel mas com melhores resultados, já que atuarão apenas no que receberão – informações de fato relevantes que poderiam nem ser enxergados sem um filtro necessário; 3. Garantir escalabilidade, para se ajustar à capacidade necessária para o mapeamento eficiente dos fluxos e entrega qualificada às soluções de segurança e gestão de rede. A partir desses três pilares, o recorte adequado do tráfego de rede é enviado às ferramentas certas, otimizando o papel delas de proteger a rede, extrair padrões de usuários, compilar dados que podem ser valiosos para a equipe comercial, entre diversas outras funcionalidades. A eficiência no funcionamento dessas soluções que recebem informações filtradas e relevantes da rede é, sem dúvida, o principal benefício oferecido pelas tecnologias de visibilidade de tráfego. Mas a economia gerada às empresas é mais um atraente resultados desta combinação: quanto mais eficaz é a extração qualificada dos dados e fluxos da rede, menor será a necessidade de investir em mais soluções que recebem esses dados, estão na outra ponta e podem, elas mesmas, consumir cada vez mais tráfego de rede. (*) É vice-presidente de gestão de produtos da Gigamon Inc.
Unicamp sedia workshop internacional de desenvolvimento de gamesO Gamux, núcleo de pesquisa e desenvolvimento de jogos da Unicamp, sedia pelo 5º ano consecutivo a Global Game Jam (GGJ), evento internacional no qual estudantes, aspirantes e profissionais do setor de jogos se reúnem para produzir um jogo completo em 48h, além de expandir suas redes de contatos, buscar novos talentos e trocar experiências e técnicas de produção. “Produzir um jogo do zero em 48h representa um grande desafio para os profissionaisda do setor, uma vez que os convida a rever e maximizar seus processos de desenvolvimento. Também representa uma ótima oportunidade para estudantes e fãs de games que gostariam de fazer carreira, mas ainda não conhecem a área muito bem. Além disso, a área apresenta elevado potencial de crescimento: atualmente o Brasil foi estimado como o 11º mercado de jogos do globo, e Campinas, o maior polo tecnológico na América Latina.” analisa Matheus Schmidt, coordenador geral do Gamux. A GGJ é utilizada mundialmente pelas grandes empresas do segmento como uma ferramenta para descobrir tendências e profissionais com portfólios interessantes, de forma que a lista de patrocinadores conta com gigantes como Intel, Facebook, Defold, Unity e Firefox. O tema dos jogos a serem elaborados é anunciado para todas as sedes da Global Game Jam simultaneamente. A partir daí, cada equipe tem 48 horas para desenvolver um jogo funcional que utilize o tema de forma criativa. Todos os games são publicados no site do evento, com link para download. A proposta consiste em permitir que os participantes desenvolvam seu network e ainda mostrem seus talentos no ramo de desenvolvimento de jogos. As inscrições para Global Game Jam em Campinas são gratuitas, feitas através do site do Gamux (http://www.gamux.com.br/ eventos/globalgamejam2014/). Experiences lança versão para AndroidLançado em março de 2015, a princípio na versão iOS, o Experiences, aplicativo para fazer reservas personalizadas em restaurantes de alta gastronomia, acaba de anunciar o lançamento da plataforma para Android. Com isso, o app espera aumentar sua base de usuários em mais de 150%. Uma pesquisa divulgada pela comScore em parceria com a Internet Media Services (IMS), aponta que o Google tem uma grande presença no Brasil em dispositivos móveis e que o mercado brasileiro é o mais forte para o sistema Android na América Latina, com penetração em 82% dos smartphones. Outro dado interessante é que as pessoas gastam seis vezes mais tempo em apps do que em sites móveis e 37% delas usam apenas o smartphone para ter acesso à internet, número que deve continuar aumentando, já que os celulares ganham cada vez mais funcionalidades Além disso, em 2015 o mercado nacional de aplicativos deve fechar com um movimento de US$ 25 bilhões, com expectativa de crescimento para US$ 77 bilhões em 2017, segundo a Gartner. | Corretor Ortográfico FLiP Ganha Versão Brasileira para Suportar a Nova OrtografiaPara acompanhar as exigências do Novo Acordo Ortográfico da Língua Portuguesa, que está finalmente em vigor desde 1º de janeiro deste ano, a editora eletrônica digital Priberam está lançando a nova versão – para português do Brasil – do pacote de aplicações FLiP (Ferramentas para a Língua Portuguesa). O FLiP 10 Brasil é um conjunto de aplicações para a correção automática, revisão e apoio sintático à escrita. O produto original já tem 20 anos de mercado e, anteriormente, liderava o segmento no Brasil através de outra marca comercial. Mais do que um corretor e revisor ortográfico e gramatical, o FLiP 10 dispõe de recursos de processamento e edição de textos nativos na aplicação e inclui um léxico geral articulado a dicionários temáticos totalmente revistos. A nova versão incorpora uma edição atualizada do Dicionário Priberam (que passou de cerca de 100.000 para mais de 120.000 entradas). Além disso, o produto é totalmente compatível com o Windows 10 e o Office 2016 e com as versões mais recentes dos aplicativos da Adobe, como é o caso do InCopy e do InDesign. Com o lançamento do FLiP 10, a Priberam reforça sua posição enquanto referência absoluta em termos de correção ortográfica e sintática da língua portuguesa em aplicativo de processamento de texto e edição digital. O FLiP se tornou, ao longo das duas últimas décadas, a ferramenta de revisão escolhida pelos maiores grupos de mídia no Brasil e em Portugal e de instituições que procuram a maior qualidade de correção ortográfica e sintática possível, como é o caso do grupo Folha e do UOL, no Brasil, e da Comissão Europeia, entre muitas outras. A Priberam estima que o FLiP 10 tem capacidade de correção de erros cerca de 5 vezes superior à das ferramentas de correção ortográfica e sintática nativas do Office 2016. Carlos Amaral, CEO da Priberam, afirma que FLiP 10 inclui o know-how na área do software linguístico que desenvolvemos ao longo das últimas duas décadas e continua a demonstrar que constitui um real valor acrescentado para todos aqueles que levam muito a sério a escrita do Português em qualquer das suas variantes. Pela primeira vez, a Priberam irá permitir o pagamento do programa através de “Boleto Bancário”. A edição do FLiP destinada à plataforma MacOS (FLiP:mac 4 Brasil) irá manter as mesmas funcionalidades. Contudo, será disponibilizado um patch gratuito para compatibilidad com a versão El Capitan do sistema operacional da Apple. O FLiP 10 Brasil é retrocompatível até ao Windows Vista 2003 Server, ao Office 2007 e às ferramentas Adobe CS2. O FLiP 10 Brasil pode ser obtido a partir de www.priberam.pt/store/loja.aspx. O seu preço é em torno de 175,00 Reais . O preço para quem já adquiriu outro produto da Priberam é cerca de 130,00 Reais. Data Science: de mineradores a cientistas, passando por operadores de empilhadeirasEugenio Caner (*) A indústria vive reinventando nomes. Quando migrei do mundo acadêmico para o empresarial a palavra da moda para descrever a implementação de métodos analíticos era Data Mining Éramos chamados de “mineradores de dados”, numa tentativa de descrever nosso trabalho como extração de ouro dos dados. Nos últimos tempos, com a popularização destas soluções, surge um novo termo: Data Science! Subimos de nível então? A palavra cientista realmente combina mais com nosso perfil profissional, mesmo que as vezes chegue a ser vulgarizada. Recentemente, em um evento de Big Data, quando perguntado sobre os métodos de Data Science, o palestrante respondeu que, basicamente, se resumia em “conectar uma serie de caixinhas e escolher qual era a melhor”. Doeu nos ouvidos! Se é para trocar caixinhas, bastaríamos ser operadores de empilhadeiras! O Data Science é sinônimo de método científico, é o processo continuo de aprendizagem, é previsão e otimização de decisões. O Data Science é o processo continuo de aprendizagem Em reuniões de equipe sempre surge o debate sobre qual seria o tipo de perfil adequado para desenvolver o Data Science, e a comparação clássica sempre é entre o estatístico versus o especialista em computação, mas existem outros. O Estatístico domina profundamente a teoria, sobretudo a medição das incertezas, que é fundamental para separar o sinal do ruído, já que facilmente caímos na armadilha de encontrar padrões no próprio ruído. Geralmente não são bons programadores, por isso uma complementação deixaria o perfil mais robusto. Eles também se dividem em frequentistas ou bayesianos, mas isto é tema para outro artigo. Em contraposição estão os especialistas em computação, os chamados programadores. São muito hábeis em implementar estruturas complexas de modelos de machine learning e métodos paralelos do Big Data. Mas observamos dificuldades na hora de resumir uma extração de conhecimento de negócio ou responder sobre eventuais desvios nos modelos. Matemáticos (falo dos “aplicados”) são um perfil bem completo. Frequentemente são bons programadores e com pensamento abstrato tão agudo que as vezes vira um problema quando é preciso explicar o modelo de forma simples a um cliente. Físicos (a ciência mãe): gosto deles! Enxergam tudo como um fenômeno, com sua origem, desenvolvimento e abrangência. Problemas clássicos de abandono de clientes são vistos com o mesmo prisma da mecânica quântica, no final cada cliente pode ser observado como partícula e onda ao mesmo tempo. Também gosto pela beleza que procuram nas equações: modelo bom tem que ser bonito. Todo físico sabe disso! Biólogos (ou físicos da vida): adoro a visão de incorporar analogias do comportamento dos seres vivos nas análises. No final quase sempre estamos modelando seres vivos! A quem ocorre a ideia de modelar o efeito da frequência de exposição da mídia utilizando uma forma funcional do efeito do fertilizante sobre numa planta? Ou criar um sistema de gestão de modelos baseados em conceitos evolutivos de elementos vivos? Engenheiros (práticos: 2+2=3.9, pode ser uma ótima solução). Muitos dos métodos usados no Data Science foram criados por engenheiros diante da necessidades de resolver problemas concretos. O cientista de dados tem que ser sempre um pouco engenheiro, afinal lidamos com projetos e tempos, e como em qualquer profissão precisamos ser rentáveis. Aqueles engenheiros provenientes de áreas de controle ou processamento de sinais já trazem uma bagagem em técnicas bastante completa para o Data Science. Economistas. As vezes muito criticados, mas são eles que têm a coragem de explicar as coisas que ninguém se atreve. Incorporam a visão filosófica de negócio fundamental na modelagem, especialmente se são bons em econometria. Psicólogos. Não temos por agora ninguém. Mas depois do Daniel Kahneman – psicólogo ganhador do Nobel em Economia – acho que é próximo perfil que gostaríamos de incorporar na nossa empresa. O entendimento do ser humano com suas decisões irracionais será fundamental para o melhoramento dos modelos. Independentemente da palavra de moda para designar o trabalho da análise de dados, muito novos perfis serão atraídos a este fascinante mundo: administradores, jornalistas, médicos, inclusive já surgem faculdades específicas sobre a profissão. De qualquer maneira, é na interseção de fronteiras de conhecimento onde a inovação prevalece. Por isso acreditamos na mescla de perfis e na contraposição de visões de pensamento, baseadas sempre no método cientifico. Se você é Data Scientist, qual é tua área de origem? (*) É Diretor da Murabei Data Science.
|