102 views 25 mins

Tecnologia 27/08/2015

em Tecnologia
quarta-feira, 26 de agosto de 2015

Gestão de Projetos, sua ferramenta de competitividade

Em um mundo em constante mutação e de muitas incertezas, cada vez maisas empresas trabalham no planejamento estratégico definindo seus objetivos e prioridades. A inovação está na pauta da maioria das empresas como fator de sobrevivência e é em momento de crise que os empresários reavaliam seus modelos de atuação

 gerente-de-projeto1 temporario

Leonel G. Nogueira Jr (*)

Além da estratégia, as empresas trabalham no planejamento operacional, definindo o portfólio de projetos. Após essa fase, define-se os projetos prioritários (normalmente são eleitos aqueles que agregam valor ao cliente), eficiência operacional e inovação, como, por exemplo, lançamento de produtos.

Em seguida, entra a fase de execução, onde as empresas se deparam com falta de recursos, ferramentas e pessoas qualificadas para o gerenciamento de projetos, fatores que podem fazer toda a diferença no cenário competitivo.

Quando falamos principalmente de pessoas, o mercado exige um profissional que tenha não somente um certificado de Gestão de Projetos, mas também capacidade para entender os processos de negócios, ajudar na definição do business case, ajudar da especificação funcional das necessidades de TI, integração com outros projetos, múltiplas tecnologias, sistema legados e fornecedores internos e externos.

O gerenciamento de projetos de TI tem sido fundamental para o sucesso das organizações, porque a aplicação correta das técnicas de gestão dos projetos tem comprovado uma substancial melhoria na qualidade dos produtos, na comunicação interna e externa, no gerenciamento dos recursos humanos, na satisfação dos clientes, entre outros itens.

De forma macro, podemos dizer que a gerência de projetos visa reduzir os riscos de fracasso em um nível tão baixo, quanto necessário durante o ciclo de vida do projeto. O risco de fracasso aumenta conforme a presença de incertezas durante todos os estágios do projeto. Alguns especialistas no assunto dizem que o gerenciamento de projetos é a capacidade de definir e alcançar objetivos, ao mesmo tempo em que se otimiza o uso de recursos como tempo, dinheiro, pessoas, espaço, etc.

De acordo com o Project Manager Institute (PMI – Associação que reúne e certifica profissionais do setor), serão criados 13 milhões de novos postos para Gerentes de Projetos em todo o mundo até 2020. Porém, manter um profissional desse tem alto custo e uma alternativa saudável é a terceirização dessa atividade.

Um time bem treinado consegue aplicar seus conhecimentos, habilidades e técnicas na elaboração das atividades relacionadas ao projeto para atingir o conjunto de objetivos pré-definidos.

O conhecimento e as práticas da gerência de projetos podem ser classificados em cinco grupos de processos (iniciação, planejamento, execução, controle e encerramento) e nove áreas de conhecimentos que englobam a gerência de: integração de projetos, do escopo dos projetos, do tempo do projeto, do custo, da qualidade dos projetos, dos recursos humanos envolvidos, da gerência de comunicação do projeto, dos riscos e das aquisições.

Mas o sucesso da gestão de projetos vai além da capacidade de aplicar as técnicas recomendadas (e ensinadas) pelo PMI. É extremamente necessário habilidades interpessoais, capacidade de liderança, comunicação, negociação e empatia para ter sucesso nessa atividade.

Porque o objetivo da gestão é manter o progresso e a interação mútua contínua dos diversos participantes do empreendimento, para garantir o sucesso reduzir o risco de fracasso do projeto.

Ou seja: ter conhecimento técnico é necessário, mas saber lidar com pessoas é fundamental, pois quem entrega o projeto não é o gerente, é a equipe.

(*) É CEO da Global TI, com a colaboração de Sérgio Donadio, Diretor de Negócios da Global TI. www.globalti.com.br.


Oficinas gratuitas de pintura digital e escultura em massa clay

Os interessados em conhecer ou até mesmo ingressar profissionalmente na área de computação gráfica, pintura digital e desenvolvimento de games têm uma grande oportunidade no mês de setembro. A partir de 2 de setembro, a nova unidade de Santana – SP, da SAGA – School of Art, Game & Animation, irá sortear 80 vagas para oficinas gratuitas que serão ministradas na própria escola. Serão quatro oficinas de escultura em massa clay (dias 9, 16, 23 e 30 de setembro, das 14h às 16h) e oito de pintura digital (dias 7, 14, 21 e 28 de setembro, das 14h às 16h, e dias 8, 15, 22 e 29 de setembro, das 9h às 11h).
As oficinas de pintura digital serão com o Christiano Rodrigo Jacinto, professor do curso Start, voltado para iniciantes e profissionais que desejam se especializar em computação gráfica, animação, web e 3D. Já as oficinas de esculturas em massa clay, serão com o escultor Clayton Oliveira, que mostrará parte do conteúdo ensinado no Playgame.
Para mais informações sobre as oficinas, ligue para (11) 3774-0439 ou envie e-mail para [email protected]. Já as inscrições para o sorteio de vagas devem ser feitas na própria unidade da escola em Santana, que fica na Rua Alferes Magalhães, 103, próxima à estação Santana do metrô.

Médicos que publicam informações de pacientes na internet podem ter exercício profissional cassado

CAPA1 temporario

As redes sociais tomaram conta dos usuários da internet. Hoje são mais de 1,39 bilhão de usuários mensais ativos apenas no Facebook, segundo dados da rede social. O uso constante das plataformas de relacionamento faz com que algumas vezes exponhamos além da conta detalhes da vida pessoal e profissional indevidamente. Com os médicos, isso não é diferente. Não é difícil vê-los interagindo com pacientes nas mídias sociais ou mesmo discutindo casos em grupos fechados.
Esse tipo de conteúdo nas mídias sociais de massa pode gerar problemas. O Código de Ética Médica veda ao médico fazer referência a casos clínicos identificáveis, exibir pacientes ou seus retratos em anúncios profissionais ou divulgação de assuntos médicos, mesmo com a autorização do paciente (Art. 75). As redes sociais de nicho, como o Ology, focado nos médicos, permite esse tipo de interação.
A sócia-criadora da rede social, Giovana Pieck, explica que o ambiente é seguro e próprio para os profissionais. “O Ology foi criado exclusivamente para esse tipo de interação, para os médicos discutirem casos em um ambiente privado onde só profissionais têm acesso”. Para instruir os médicos, a plataforma desenvolveu junto com o escritório referência em direito digital, Patrícia Peck Pinheiro, o “Guia Melhores Práticas de Uso Seguro das Redes Sociais”. O texto traz orientações e dicas para os profissionais utilizarem as redes sociais de massa, de maneira ética, sem inadvertidamente publicar informações consideradas sigilosas, ou realizar consultas via internet, que são proibidas, de acordo com o Conselho Federal de Medicina (CFM).
Em Brasília, por exemplo, casos de divulgação indevida de pacientes geraram repercussão, quando médicos publicaram, no Instagram, selfies e imagens de pessoas que passaram por procedimentos cirúrgicos. Segundo o Artigo 22, as penas disciplinares aplicáveis pelos Conselhos Regionais aos seus membros vão desde advertência confidencial com aviso reservado até cassação do exercício profissional.
De acordo com Patricia Peck Pinheiro, especialista em Direito Digital, é fundamental os médicos terem o apoio de um guia orientativo como este que serve de diretriz (guideline) para suas condutas digitais de modo a evitar riscos que possam afetar sua carreira, especialmente no que envolve questões de postura ética e de sigilo nestes ambientes online. “Muitos médicos ainda desconhecem todos os riscos e efeitos colaterais envolvidos no compartilhamento de informações por canais digitais bem como os impactos que um vazamento de informação ou mesmo a publicação de um conteúdo na web pode ter na sua vida profissional e na sua reputação. Existem espaços próprios mais adequados para discussões de casos e diagnósticos e o médico deve buscar essas plataformas como apoio para informações seguras e de qualidade”, finaliza. Para ter acesso ao guia “Guia Melhores Práticas de Uso Seguro das Redes Sociais”, acesse http://www.ology.com.br/melhores-praticas-para-medicos-nas-redes-sociais/.

A jornada da virtualização

Mike Thompson (*)

Um guia de progressão pelas quatro fases da maturidade da virtualização

Não é segredo que a virtualização controla o data center – recentemente ultrapassou 50% de todas as cargas de trabalho de servidor e espera-se que atinja 86% até 2016. Mas, embora os data centers virtualizados tenham, em grande medida, se tornado preponderantes, a maioria das organizações ainda está no que poderiam ser consideradas as fases iniciais da maturidade da virtualização.
Então, como as empresas podem navegar por esse panorama e colher todos os benefícios da tecnologia avançada de virtualização? Hoje existem quatro fases principais na progressão da maturidade da virtualização: implementação, otimização, automação e automação avançada, que engloba aprimoramentos de vanguarda absoluta, como rede e armazenamento definidos pelo software.
A seguir, apresentamos um guia de cada fase, que inclui práticas recomendadas que permitem a organizações de TI aproveitar mais eficazmente a virtualização hoje e acompanhar o ritmo de suas futuras aplicações.

Fase 1: implementação e operações de linha de base
A fim de preparar uma implementação eficaz e garantir o funcionamento, as organizações de TI devem estabelecer uma tecnologia operacional de núcleo e procedimentos relacionados aos devidos processos de configuração, segurança, migração, recuperação de desastres e backup. Quanto mais maduros e estáveis estiverem esses recursos antes da criação de máquinas virtuais (VMs) e da alocação de cargas de trabalho a cada uma delas, mais fácil será a implementação. Após a implantação inicial, os servidores virtualizados devem ser monitorados de perto e submetidos a manutenção para corrigir problemas inevitáveis de desempenho e capacidade, bem como documentar uma linha de base da eficiência operacional. Esse tipo de monitoramento com foco acirrado também ajuda a garantir a disponibilidade e a priorização de recursos de modo a atender melhor às necessidades de SLAs e usuários finais.
Com muita frequência, essa fase é assolada por erros e negligência, como planejamento inadequado da capacidade ou estabelecimento de um ambiente virtual sem a competência para definir a escala da tecnologia e aprimorá-la. Passos equivocados como esses, comuns à implementação, podem criar uma variedade de problemas que costumam ser dispendiosos e que, em última análise, prejudicam a capacidade da organização de passar para a próxima fase.
A esta altura, a maioria das empresas já está além da implementação básica e estabeleceu um ambiente virtual em criação contínua. No entanto, muitas dessas mesmas organizações quase nunca vão além de técnicas de gerenciamento reativo, podendo ficar permanentemente presas nessa primeira fase. As organizações de TI que estão se perguntando, “como podemos melhorar isso?” São aquelas que compreendem as vantagens da transição para o gerenciamento proativo e progrediram ou estão progredindo para a fase de otimização, que pode melhorar bastante a agilidade e o desempenho.

Fase 2: otimização
Depois de implantar com sucesso uma infraestrutura virtualizada e atingir o nível de operações da linha de base, as organizações de TI podem voltar sua atenção para a otimização dessa infraestrutura em termos de desempenho e agilidade, ao mesmo tempo que asseguram que a empresa está obtendo o máximo de seu hardware físico e obtendo uma vantagem competitiva perceptível com a tecnologia. No entanto, a liberdade que os ambientes virtuais proporcionam também apresenta desafios específicos que os administradores devem gerenciar para manter um ambiente otimizado – além de exigir um planejamento detalhado e um gerenciamento atento.
Há várias maneiras pelas quais as organizações podem melhorar o desempenho de um ambiente virtual, a começar da simples consolidação de VMs para proporcionar economias significativas de capital, operacionais e no consumo de energia. Mas para empresas que exigem um ambiente virtual maior, gerenciar a dispersão e dimensionar corretamente as máquinas virtuais são essenciais à otimização.
A virtualização facilita a criação de máquinas virtuais adicionais, mas o provisionamento excessivo pode levar a um consumo desnecessário significativo do desempenho do ambiente em geral. Com frequência, a dispersão não solucionada de máquinas virtuais também resulta em violações de segurança, caso patches não sejam aplicados a VMs antigas e esquecidas. Para ajudar a deter o problema de dispersão de VMs, as organizações de TI devem se perguntar constantemente, “Esta VM ainda é necessária e, caso seja, ela tem o nível correto de recursos?”
Outras práticas recomendadas para o gerenciamento da dispersão incluem a implementação de um processo formal de solicitação e aprovação para criação de uma nova VM que limite o número de administradores de TI autorizados a criar novas máquinas e estabeleça uma cadeia de responsabilidade detalhada para as VMs criadas. As organizações também podem estabelecer um sistema de showback, em que relatórios sobre o consumo de recursos – e possivelmente até seus custos teóricos – sejam compartilhados com os usuários finais para incentivar o bom comportamento e demonstrar que VMs não vêm de graça.
Além de controlar a dispersão em um ambiente virtual, os administradores também devem planejar quaisquer necessidades futuras de VMs adicionais da empresa. Sendo assim, o planejamento de capacidade também representa uma parte importante da fase de otimização para assegurar que haja capacidade suficiente em todos os recursos de host, além de exigir que a organização tenha um conhecimento minucioso dos dados históricos de desempenho para fazer recomendações bem informadas. Esses processos de otimização trazem ordem para o caos que pode se apoderar de um ambiente virtual, permitindo que as organizações progridam com facilidade para o terceiro estágio.

Fase 3: automação
Para organizações prontas para avançar além da otimização, a terceira fase da maturidade da virtualização é a automação. Este estágio depende de a empresa contar com uma base sólida de processos básicos, bem como com fluxos de trabalho bem compreendidos e documentados para aplicar práticas recomendadas e políticas que permitam a automação a fim de proporcionar melhorias em escalabilidade e agilidade. Esses processos devem ser estabelecidos nas fases um e dois da jornada de capacitação.
A verdadeira otimização de um ambiente virtualizado começa na instrumentação do ambiente com uma ferramenta de gerenciamento automatizada que reúne dados, analisa o desempenho e fornece alertas automáticos que formam a base para uma automação e orquestração mais avançadas. Esses alertas podem ser parcialmente automatizados, caso em que um usuário valida uma ação antes de “clicar no botão”, ou totalmente automatizados, quando a máquina age por conta própria. Organizações que fazem com sucesso a transição para a automação criam uma infraestrutura virtualizada mais flexível e responsiva que realmente aproveita as vantagens da virtualização, tais como maior velocidade, maior economia de custos e atendimento simplificado ao usuário final.
Mas pode ser difícil determinar quando e como iniciar a automação. Uma boa abordagem para iniciantes é introduzi-la gradualmente, com base em risco, valor e previsibilidade. Em outras palavras, não se arriscar no início. Identifique um ambiente de teste que seja de baixo risco, alto valor e o mais previsível possível para aprender com seus erros e criar práticas recomendadas para uma implantação mais ampla. As organizações de TI também devem selecionar uma ferramenta ou estrutura de automação que corresponda aos conjuntos de habilidades e competência do especialista da empresa no assunto.

Fase 4: automação 2.0 – X definido pelo software
Embora hoje a automação de fase três seja a meta da maioria das organizações rumo a um ambiente virtualizado eficaz, o setor já começou a voltar sua atenção à fase quatro, considerada a vanguarda absoluta da capacitação da virtualização – rede e armazenamento definidos pelo software. Essas tecnologias permitem às empresas acelerar a implantação de aplicativos e entregar mais do que recursos de computação, de modo a reduzir drasticamente os custos de TI com uma automação do fluxo de trabalho mais generalizada no data center.
Tecnologias de data center definidas pelo software podem ser fáceis de comprar, mas o difícil é adaptar os processos e a tecnologia atual de modo a aproveitá-las eficazmente, permitindo que tornem a empresa mais eficaz e eficiente. Antes de considerar a passagem para esse estágio, as organizações de TI devem assegurar-se de que suas organizações e ambientes virtuais estejam construídos sobre bases sólidas de práticas recomendadas de cada uma das três fases anteriores. Também deve haver uma vantagem competitiva clara no aproveitamento dessa tecnologia, que justifique o risco e a despesa.

Conclusão
As vantagens da virtualização são indiscutíveis, visto que ela proporciona economia de custos, maior disponibilidade e agilidade aprimorada no atendimento das necessidades dos usuários finais. Mas, para muitas empresas, é difícil expandir além da implementação mais básica da tecnologia. Independentemente de uma organização estar apenas começando sua jornada de virtualização ou tentando progredir para um estágio mais avançado, seguir o esquema apresentado neste guia pode capacitar as organizações não apenas a maximizar as vantagens da fase de virtualização em que se encontram no momento, mas também a continuar avançando para a próxima fase e obtendo as vantagens agregadas disponíveis.

(*) É diretor de marketing de produtos de gerenciamento de sistemas da SolarWinds