Entenda sobre a replicação de dados

replicacao-de-dados

Você sabe o que é replicação de dados e por que ela é necessária?

Com a crescente dependência dos meios digitais para a realização de negócios, manter a disponibilidade dos serviços online tornou-se essencial para empresas de todos os portes, em todos os segmentos de atuação.

Uma interrupção dos serviços pode representar perda de oportunidades e quebra da produtividade interna, comprometendo diretamente a competitividade da empresa.

Neste artigo veremos como a replicação de dados pode contribuir para a garantia da continuidade na execução dos serviços, mesmo diante da ocorrência de falhas.

O que é a replicação de dados?

replicação de dados é um processo em que as informações de uma infraestrutura são copiadas para um ou mais ambientes com as mesmas configurações do original.

Dentro de uma estratégia de contingenciamento, ela representa a possibilidade de manter os serviços disponíveis a partir de um segundo ambiente, caso o primeiro apresente falhas.

Portanto, trata-se de uma solução que permite ao negócio ter uma cópia ativa e operacional de todas as suas ferramentas.

De fato, a replicação inclui a duplicação de transações e um processo constante de atualização e sincronização entre o ambiente original e suas cópias.

Dessa forma, a empresa se previne contra qualquer tipo de falha que venha a impactar sua infraestrutura de TI.

Caso a falha ocorra, a utilização do segundo ambiente é acionada imediatamente.

Assim, os serviços voltam a operar normalmente, enquanto a equipe de TI corrige a falha que atingiu o ambiente original.

Sincronização e backup

De certa forma, a replicação de dados une as características da sincronização e do backup de dados.

Apesar de existir uma relação de complementaridade entre esses conceitos, é importante saber distinguir um do outro, para que não se corra o risco de implantar na empresa uma estrutura de segurança incompleta.

Sincronização de dados

A sincronização faz um espelhamento das informações, geralmente em um serviço na nuvem.

Dessa forma, haverá sempre uma cópia exata dos dados que estão no ambiente operacional da empresa.

Porém, isso significa que, se um arquivo for indevidamente excluído ou alterado, essa ocorrência será espelhada no ambiente de cópia.

Assim, por si só, a sincronização de dados não representa uma garantia de proteção da informação.

A sincronização é muito útil como recurso para compartilhamento de arquivos e trabalho colaborativo envolvendo pessoas em diferentes locais.

Backup de dados

Já o backup de dados, ao contrário da sincronização, permite a guarda de cópias periódicas dos arquivos.

Na prática, isso significa a possibilidade de a empresa manter pontos de retomada aos quais ela pode voltar caso necessário.

Isso é importante em situações como o de um problema estrutural, que resulte em dados corrompidos, por exemplo.

Nesse caso, a solução seria a de restaurar o último backup anterior à ocorrência, quando os dados estavam sabidamente íntegros.

É claro que esse procedimento gera perda de informações e um provável retrabalho, mas ao menos restaura um ambiente íntegro.

A forma de se fazer backups varia de empresa para empresa, mas o mais comum é o backup diário.

Outro ponto importante está em estabelecer o período de retroatividade que deve ficar disponível para uma eventual necessidade de utilização.

Assim, o backup é especialmente útil para restaurar ambientes após a ocorrência de erros humanos, falhas de hardware e desastres.

Como a replicação de dados beneficia o seu negócio?

Listamos a seguir as principais vantagens que a replicação de dados pode trazer para a sua empresa.

Maior capacidade de garantir a continuidade das operações

Com a replicação de dados, a empresa passa a contar com uma alta capacidade de manter suas rotinas em execução, mesmo diante da ocorrência de falhas.

A criação de múltiplas instâncias com os dados dos sistemas mais importantes amplia a confiabilidade dessa infraestrutura.

Uma replicação de dados bem implementada reduz drasticamente as chances de uma empresa ter problemas de disponibilidade em seus serviços.




Já uma retomada de serviços a partir da restauração de um backup, por exemplo, tende a ser muito mais demorada.

Redução de riscos

A redução de riscos é uma das maiores preocupações de gestores de TI.

Conforme a tecnologia é integrada ao ambiente operacional de empresas, a necessidade de manter a infraestrutura com alto nível de disponibilidade torna-se fundamental.

Nesse cenário, as melhores estratégias são aquelas que reduzem o número de fatores que possam comprometer a segurança interna.

Com efeito, a replicação de dados evita o prolongamento do downtime após uma falha em sua infraestrutura de TI.

No momento em que uma falha ocorrer, o gestor de TI poderá acionar uma nova instância para que a área afetada possa manter as suas rotinas.

Desse modo, a equipe de TI pode trabalhar na eliminação do problema localmente, sem interromper as atividades do negócio.

Voltando à alternativa da restauração de um backup, além da demora na retomada, ela também implica em perdas ou retrabalho.

Melhor relação custo / benefício

Para implementar localmente a replicação dos dados, seria necessário recriar toda a infraestrutura de TI.

Em muitos casos, independentemente do porte da empresa, isso pode ter um custo proibitivo.

Porém, mesmo esse custo pode ser reduzido a partir da replicação de dados na nuvem.

De forma simples, a empresa pode recriar uma infraestrutura semelhante à sua. Nesse caso, o custo reduz-se ao consumo dos serviços da nuvem.

Segurança da informação

A replicação de dados garante não só a retomada e a continuidade na execução dos processos, mas também a própria segurança dos dados que, em muitos casos, são confidenciais.

Melhoria no desempenho das aplicações

Além de cumprir um papel estratégico na cobertura a falhas, a replicação de dados também pode ser útil como meio para a realização de processamento distribuído.

A replicação distribui leitura de dados por diferentes máquinas na rede. Com isso, obtém-se uma melhoria no desempenho das aplicações.

A replicação de dados como parte de uma estratégia de alta disponibilidade

Em TI, a disponibilidade diz respeito ao período de tempo em que um serviço permanece disponível, ou ainda ao tempo necessário para que um sistema responda a uma requisição feita por um usuário.

Alta disponibilidade (HA – High Availability) define a qualidade de um sistema ou componente no sentido de garantir um desempenho elevado ao longo do tempo, considerando assim seus mecanismos de resposta a falhas.

A necessidade de uma alta disponibilidade pode variar de empresa para empresa, mas, em um cenário de dependência crescente da tecnologia, a alta disponibilidade dos serviços tende a se tornar uma condição básica para o andamento dos negócios.

A indisponibilidade dos serviços de TI pode ter diferentes causas, como ataques cibernéticos, falhas técnicas ou até mesmo uma substituição ou atualização de hardware ou software.

A disponibilidade pode ser expressa como um percentual indicativo do tempo em que um serviço permanece em operação regular.

Dessa forma, uma disponibilidade de 100% indicaria um serviço infalível. Já um serviço que garante uma disponibilidade de 99% teria, ao longo de um ano, um período aproximado de 3,65 dias de indisponibilidade.

No cálculo do percentual de disponibilidade, é preciso considerar:

  • Os períodos programados para manutenção;
  • Os períodos de indisponibilidade não programada (devido a falhas);
  • O tempo necessário para restabelecer o serviços após um evento de indisponibilidade.

Para reduzir ao máximo os impactos de uma eventual indisponibilidade, é prudente estabelecer uma estratégia de alta disponibilidade, compatível com as necessidades da empresa.

Fatores a serem considerados em uma estratégia de alta disponibilidade

Uma estratégia de alta disponibilidade precisa levar em conta alguns importantes fatores, como:

  • O ambiente: a localização geográfica e a redundância de servidores e da infraestrutura em geral são importantes fatores de prevenção contra acidentes da natureza, por exemplo.
  • O hardware: os servidores precisam ter resiliência em relação a quedas de energia e falhas em geral. Também nesse caso, a redundância pode contribuir para um ambiente mais confiável.
  • O software: do sistema operacional às aplicações de front-end, todos os softwares devem ter rotinas para tratamento de falhas.
  • Os dados: Uma falha do dispositivo de armazenamento ou outros fatores podem causar a perda ou a inconsistência dos dados. Aqui devem entrar soluções como os backups e a replicação de dados.
  • A rede: uma das formas mais frequentes de indisponibilidade tem como causa as falhas nas estruturas de redes. A redundância de redes é um caminho a ser considerado.
  • O sistema de monitoramento: uma boa estratégia de alta disponibilidade passa obrigatoriamente pela implementação de um bom sistema de monitoramento, tanto para as aplicações como para os dispositivos.

Além disso, as equipes de TI devem estar treinadas e preparadas, com procedimentos bem definidos, para entrar em ação diante da ocorrência de qualquer incidente que coloque em risco a disponibilidade dos serviços.

Os métodos de replicação de dados

Conhecer os diferentes métodos de replicação de dados é crucial para que o gestor de TI escolha aquele que esteja mais de acordo com as exigências do negócio.

Conforme veremos a seguir, existem dois métodos distintos de replicação de dados.

Método passivo

No método passivo, a replicação de dados não é feita de forma automática, mas a partir de uma sistemática de sincronização entre as diferentes partes do ambiente.

De acordo com esse conceito, definem-se um gerenciador de réplica primário e um ou mais gerenciadores de réplica secundários, também chamados de backups ou escravos.

O papel do gerenciador primário

O gerenciador de réplica primário exerce um papel central nessa solução.

Em primeiro lugar, é ele (e somente ele) quem recebe as requisições vindas do front-end das aplicações.

Em seguida, cabe ao gerenciador tratar a requisição, executando-a e armazenando seu resultado.

As atualizações são então distribuídas aos gerenciadores de réplica secundários, que por sua vez confirmam o recebimento.

Por fim, a resposta é devolvida ao front-end que fez a solicitação.

Em caso de falha…

Caso o gerenciador de réplica primário falhe, um dos gerenciadores secundários toma o seu lugar.

Uma falha do gerenciador primário pode ocorrer em diferentes momentos, antes, durante ou após uma atualização, ou ainda, antes ou após o envio da resposta às requisições do cliente.

A verificação de falha no gerenciador primário pode ser feita de duas formas:

  • Estabelecendo-se um timeout para que o cliente tenha sua requisição respondida;
  • Ou então, definindo que os gerenciadores secundários façam uma verificação da atividade do gerenciador primário.

A atualização de dados do ambiente primário para os ambientes secundários é feita em intervalos configurados conforme a necessidade da empresa. Em geral, essa atualização não se dá de forma contínua.




A retomada das atividades após um problema pode ser relativamente demorada, além de estar sujeita a algumas perdas.

Método ativo

É um método considerado mais seguro, uma vez que implica em múltipla disponibilidade de serviços.

Nesse método, a replicação de dados ocorre em tempo real, tanto no ambiente primário quanto nos ambientes secundários.

Na prática, não há distinção entre um ambiente primário e ambientes secundários, mas sim um grupo de gerenciadores atuando em paralelo.

As requisições dos front-ends chegam ao grupo de gerenciadores e todos eles as processam, de forma idêntica e independente.

Cada gerenciador também envia sua resposta ao front-end. Este, por sua vez, tem um tratamento definido para o recebimento de múltiplos retornos (acatar o primeiro e descartar os demais, por exemplo).

Caso um dos gerenciadores falhe, os demais seguem trabalhando normalmente. Assim, o impacto é mínimo, sem um delay para troca de ambientes.

Quanto aos gerenciadores que apresentam falhas, sua recuperação pode se dar de duas formas:

  • Por meio da atualização de seu estado;
  • Por meio da execução das requisições perdidas.

Exigências para a aplicação do método ativo

Sem dúvida, o método ativo exige uma infraestrutura mais sofisticada que a do método passivo.

É necessário, por exemplo, que:

  • Todas as réplicas recebam cada uma das requisições; ou todas as réplicas recebem, ou nenhuma recebe;
  • Em cada réplica, todas as requisições sejam recebidas na mesma ordem;
  • A requisição seja tratada de forma idêntica por todas as réplicas.

O ponto negativo deste método é que ele exige um investimento maior na infraestrutura de TI, porém, processos considerados mais críticos podem exigir esse tipo de solução.

Vantagens e desvantagens de cada método

Entre as vantagens do método passivo em relação ao método ativo, destacam-se:

  • A interação mais simples entre cliente e servidor;
  • Menor exigência de memórias e processadores;
  • Custos mais baixos.

Por outro lado, o método ativo apresenta as seguintes vantagens em relação ao passivo:

  • Cobertura instantânea e imperceptível de falhas, sem comprometimento do desempenho e sem perdas;
  • Ação contra diferentes tipos de falha, como crash, omissão, temporização, etc.

Principais desafios ao investir na replicação de dados

A replicação de dados traz alguns desafios para a empresa, como a adequação de sua infraestrutura de rede, a preocupação com a segurança e os custos envolvidos.

Adotando uma visão preventiva, a empresa consegue evitar riscos que poderiam surgir a partir da adoção da replicação de dados.

Assim, a empresa maximiza o seu retorno sobre o investimento e assegura a integridade de sua infraestrutura e a capacidade de se manter operacional quando as falhas ocorrerem.

A adequação da infraestrutura de rede

Uma vez que a replicação de dados depende de uma boa conexão para envio e recebimento de dados com qualidade, é crucial que a empresa tenha uma infraestrutura capaz de lidar com o aumento do fluxo de dados, sem que isso comprometa a conexão de todos os usuários.

Também é importante que a conexão de rede seja estável e tenha elevada disponibilidade. Dessa forma, a empresa não terá problemas para acessar a infraestrutura replicada quando necessário.

Os riscos à segurança

Os riscos à segurança não devem ser ignorados em um ambiente com replicação de dados.

É importante que o gestor de TI esteja preparado para evitar que o uso desse recurso comprometa a integridade da infraestrutura da empresa.

Controles de acesso devem ser replicados ou modificados, evitando que os usuários tenham acesso a recursos críticos.

Também é necessário monitorar os arquivos replicados, evitando que ocorra o acesso não autorizado a eles.

Da mesma forma, testes devem ser realizados para garantir a integridade das informações, diminuindo os riscos de um arquivo replicado estar corrompido.

Os custos para a implantação de um mecanismo de replicação de dados

Apesar de a relação custo / benefício ser claramente favorável à adoção da replicação de dados, o custo elevado para a sua implantação pode ser mesmo desafiador para a empresa, e não só para a pequena ou média empresa.

Assim, a terceirização deve ser sempre uma alternativa a se considerar, tanto em relação à infraestrutura quanto à própria disponibilidade de uma equipe qualificada.

Conclusão

Entendendo a real importância da disponibilidade dos serviços online para a empresa, fica claro o quanto a replicação de dados é necessária e oportuna.

Mas, como vimos, apesar de ser conceitualmente muito simples, sua implantação na prática traz alguns desafios a serem superados.

De toda forma, uma empresa que quer ser competitiva não pode abrir mão dos benefícios proporcionados pela replicação de dados. Em sua estratégia de alta disponibilidade, é sem dúvida um importante fator a ser considerado.

Content Protection by DMCA.com
Share

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *