144 views 16 mins

Tecnologia 20 a 23/11/2015

em Tecnologia
quinta-feira, 19 de novembro de 2015

Cloud Computing: “Só sei que nada sei”

Tenho participado de várias conversas com clientes cujo tema em pauta invariavelmente acaba derivando para a computação em nuvem – ou, como falamos em TI, o Cloud Computing

cloud-computing temproario

Ari Belone (*)

Geralmente o assunto é direcionado aos profissionais de TI, que são os responsáveis pela renovação constante dos parques tecnológicos e da infraestrutura de suas empresas, o que compromete grande fatia do orçamento de tecnologia.

Em eventos se dá o mesmo. Encontros profissionais de todos os níveis – de analistas de suporte a gerentes, passando por CIOs, CEOs e CFOs, entre outros executivos – atrás de um dedo a mais de prosa sobre Cloud. Todos buscam ouvir atentamente aos palestrantes e a troca de experiências é constante nos momentos de networking. Representantes dos mais diferentes perfis de empresas – públicas, privadas, startups, S/As, algumas com poucos anos de vida, outras com mais de cinco décadas – compartilham entre si as mesmas dúvidas e desafios.

Estaria tudo bem se entre compartilhar dúvidas e encontrar respostas não existisse um fosso paradoxal. Mas existe: o fosso está lá, gigante e profundo para quem queira ou possa enxergar.

As experiências relatadas são as mais diversas possíveis: alguns buscam a computação em nuvem somente para ambientes de produção por causa de sua maior segurança, enquanto o ambiente de desenvolvimento e homologação deve ficar interno por ser menos crítico; outros fazem exatamente o contrário já que a governança corporativa exige que a produção seja interna – afinal de contas, não querem correr o risco de ter seus dados “expostos” a qualquer ataque cibernético – enquanto o ambiente de desenvolvimento & homologação pode ficar em qualquer lugar, pela sua própria característica de ser local com dados fictícios.

Algumas empresas vêm fazendo experimentos contratando grandes provedores de Cloud Computing para pequenos projetos com a seguinte argumentação: “é só pra entender como funciona”.

Mas já ouvi fortes argumentos de companhias que obrigam seus provedores globais a manter os serviços fora da nossa fronteira tupiniquim. Por que? Ora, explicam, santo de casa não faz milagre e nem temos tanta tecnologia disponível. (Como assim?, me pergunto, mas fico quieto já que por normal lá estou para ouvir).

Outras tantas empresas, porém, mostram que têm exigido que os serviços prestados estejam no Brasil. Sim, e com uma razão igualmente objetiva: não querem estar sujeitas a qualquer sanção caso ocorra um desacordo comercial internacional que ponha em risco a segurança e a propriedade das informações.

Depois de tanta informação desencontrada, a primeira conclusão a que cheguei foi que ainda estamos totalmente perdidos quanto à decisão de como, quando, onde, porque e para que utilizar serviços de computação em nuvem. Não é isso que se ouve nos discursos oficiais corporativos – neles, há aquela certeza sem sombra de dúvida alguma, mas nem é preciso ser Sherlock Holmes para intuir que essa suposta certeza é feita de incertezas.

Mas minha segunda conclusão é condizente com o conteúdo de grande parcela das palestras que assisti e da maior parte das conversas que tive com profissionais: esse formato de serviço é algo irreversível, e muito em breve a maioria das empresas terá parte substancial de seus softwares hospedados fora de casa.

Com a computação em nuvem, os desafios não são mais questões relativas à infraestrutura, e passam a ter seus nós no gerenciamento do fornecedor e na entrega de um serviço de qualidade.

Se realmente o Cloud Computing veio para ficar, precisamos quebrar alguns – ou talvez vários – paradigmas para aceitá-lo. Caso contrário, encontraremos as mais diversas desculpas para atrasar nossa entrada nesse mundo. E, pior, um atraso somado a uma torcida fervorosa para que nossos concorrentes não tenham ultrapassado essa barreira e já estejam enfrentando outros desafios, e quem sabe se tornando mais competitivos que nós.

Pensando hoje nessas coisas percebo que todos temos apenas uma certeza, traduzida por uma frase do grande filósofo grego Sócrates: “Só sei que nada sei”.

(*) É Executivo de Negócios da Lecom S/A, formado em Tecnologia em Processamento de Dados pela Unesp Bauru com Bacharelado em Ciências da Computação pela Unesp Bauru e Pós Graduação em Administração de Empresas pela FAAP – SP.


 

Estudo aponta crescimento do mercado brasileiro de TI

pib-300x215 temproario

O mercado brasileiro de serviços de TI cresceu 7,4% entre o segundo semestre de 2014 e o primeiro semestre de 2015, comparado com os 12 meses anteriores. O levantamento foi feito pela IDC Brasil e aponta ainda que o mercado está sentindo os impactos gerados pelo baixo desempenho econômico do País, mas a expectativa é de que continue crescendo nos próximos semestres. Um dos serviços em expansão é o cloud computing – computação em nuvem – que oferece a oportunidade de utilizar diversos arquivos, aplicativos e outros dados por meio da internet, sem a necessidade de instalação em computadores locais ou em um servidor.
Além disso, outros benefícios podem ser mencionados com a implantação, entre eles, acesso as aplicações independente do sistema operacional ou do equipamento usado; facilidade com a execução de aplicação, como hardware, procedimentos de backup, controle de segurança, manutenção; facilidade para compartilhar informações e controle de gastos.
A Delta Decisão – empresa homologada Totvs, oferece serviços de alta qualidade na implantação, desenvolvimento e consultoria de sistemas de gestão empresarial e gerenciamento na área de TI.
“Ao fornecedor da aplicação cabe todas as tarefas de desenvolvimento, armazenamento, manutenção, atualização, backup, escalonamento, etc. O usuário não precisa se preocupar com nenhum desses aspectos, apenas em acessar e utilizar”, explica André Augusto, gerente de Marketing da Delta Decisão.

Testes em animais: Como as novas tecnologias podem evitar?

Carlos Eduardo Matos (*)

Há cerca de dois anos uma notícia repercutiu em toda a imprensa nacional e tomou conta das postagens e comentários em diversas redes sociais: a invasão de ativistas dos direitos animais ao Instituto Royal, na cidade de São Roque, em São Paulo

O grupo resgatou no local animais que eram utilizados como cobaias para testes de medicamentos, incluindo cerca de 200 cachorros da raça Beagle. A ação gerou uma enorme repercussão no Brasil, com mais de 10 mil publicações em redes sociais, e atingiu também outros países, como aponta um estudo da agência Frog, que descobriu que 15% dos posts relacionados ao assunto eram de estrangeiros.
Este assunto voltou à tona no início deste ano, quando o governador do Estado de São Paulo, Geraldo Alckmin, sancionou a Lei 777/2013, que proíbe o uso de animais no desenvolvimento de cosméticos, perfumes e produtos de higiene pessoal. Mas é possível realizar estes testes sem o uso de (outros) animais? Com base na ampla experiência técnica em projetos com empresas nacionais e multinacionais em atendimento a diversos órgãos reguladores, como gerente e especialista da Intertox na área de Toxicologia In Silico, respondo que apesar de não ser possível extinguir por definitivo o uso de animais, assim como de seres humanos, em todas as etapas e contextos, existem atualmente diversas situações em que é possível substituir testes com animais por métodos alternativos e, ainda, no caso do uso inevitável de animais, adotar estratégias para minimizar o sofrimento ou o número de animais sacrificados­.
Temos exemplos em que o uso combinado de modelos in silico (uso de softwares e modelos computacionais) e in vitro (com culturas de células) podem evitar o teste in vivo com animais, como no caso da etapa de avaliação do potencial de sensibilização (verificação do potencial “alergênico”). O uso de ferramentas computacionais tem se tornado essencial também por tornar possível a busca de resultados de testes que podem ter sidos realizados do outro lado do mundo, evitando novos testes desnecessários, além de trazer indicações do potencial de toxicidade através de simulações que podem tornar o uso de animais mais racional e direcionado.
Atualmente existe um conjunto de metodologias alternativas que podem ser utilizadas para realizar a avaliação de toxicidade de substâncias químicas, que podem ser classificadas segundo o tipo de organismo teste ou plataforma, como os ensaios in vivo, ex vivo, in vitro e in silico e, ainda, segundo o tempo de exposição ou desfechos toxicológicos. Estes testes alternativos fazem parte da filosofia conhecida como “3R philosophy”, que significa Substituição, Refinamento e Redução (Replacement, Refinement and Reduction) em relação aos testes com animais e que tem sido um fundamento na elaboração de políticas e regulamentações no sentindo de diminuir a utilização de animais em avaliações deste tipo.
Até chegarmos às fronteiras da ciência e discorrer sobre os modelos in silico é importante resgatar um pouco da história dos métodos computacionais. Remetendo à química computacional e aos estudos QSAR (Relação Quantitativa entre Estrutura e Atividade), já na década de 40 o físico-químico americano Hammet fazia os primeiros avanços na área da físico-química orgânica. 73 anos depois, em 2013, os pesquisadores Martin Karplus, Michael Levitt e Arieh Warshel receberam o prêmio Nobel de Química por criarem sistemas que conseguem prever reações químicas.
Com o conhecimento acumulado e avanços em informática, estatística, biologia, toxicologia e química computacional, foi possível a criação de interfaces e o surgimento de diversos modelos computacionais úteis para a avaliação do potencial de toxicidade de uma molécula pela sua estrutura química, sem o uso de animais e antes mesmo do processo de síntese (obtenção de sua forma física).
Os modelos in silico são importantíssimos neste contexto, em que tanto podem ser feitas triagens para a seleção de ingredientes com menor potencial de toxicidade e busca de dados de testes já realizados pela estrutura química, como também a combinação com outros métodos (ex: in vitro e in silico), que podem evitar testes desnecessários. O termo in silico refere-se a qualquer geração e/ou análise de dados executada através de computador ou simulação computacional, sem o uso de animais ou outras matrizes biológicas. Apesar da aparência de uma tecnologia nova, além do amplo histórico de aplicação dos modelos computacionais na descoberta de drogas, sua aplicação em toxicologia por diversas agências internacionais e a referência de uso já data de décadas.
Segundo a IUPAC (International Union of Pure and Applied Chemistry), a Toxicologia Computacional & In Silico é definida como a abordagem na qual são aplicados modelos computacionais e matemáticos para a predição de efeitos adversos e para o melhor entendimento dos mecanismos através dos quais determinada substância provoca o dano. A abordagem chamada ITS (Integrated Testing Strategies), por exemplo, visa combinar diferentes modelos na construção de evidências, tornando possível a racionalização de testes com animais e o aumento da confiabilidade pelo conjunto de resultados.
Existe então uma vantagem competitiva para empresas que se preocupam com sua imagem no mercado em relação a não utilização de animais em testes, já que a tecnologia pode promover o uso racional de animais e ainda minimizar custos com testes desnecessários.

(*) É farmacêutico, toxicólogo e mestre em Saúde Pública pela USP (Universidade de São Paulo).