sexta-feira, julho 28, 2017

Escolhendo a opção de cálculo correta no GCP: uma árvore de decisão

Quando você inicia um novo projeto no Google Cloud Platform (GCP), uma das decisões mais antigas que você faz é qual o serviço de computação a ser usado: Google Compute Engine, Google Container Engine, App Engine Ou mesmo Google Cloud Functions e Firebase.

O GCP oferece uma gama de serviços de computação que vão desde o controle total dos usuários (ou seja, o Compute Engine) para altamente abstraído (ou seja, Firebase e Cloud Functions), permitindo que o Google cuide cada vez mais da gestão e operações ao longo do caminho.
Veja quantos leitores de longo prazo do nosso blog pensam sobre as opções de cálculo do GCP. Se você estiver acostumado a gerenciar máquinas virtuais e quiser uma experiência similar na nuvem, escolha Compute Engine. Se você usa contêineres e precisa coordenar mais de um contêiner em sua solução, você pode abstrair algumas das despesas administrativas necessárias usando o Container Engine. Se você quiser se concentrar em seu código e evitar as peças da infraestrutura inteiramente, use o App Engine. Finalmente, se você quiser se concentrar exclusivamente no código e criar microservices que expõem os pontos finais da API para seus aplicativos, use as funções Firebase e Cloud.

Ao longo dos anos, você nos disse que esse modelo funciona de forma excelente se você não tiver restrições, mas pode ser desafiador se você fizer isso. Nós ouvimos seus comentários e propomos outra maneira de escolher suas opções de computação usando um conjunto de perguntas com restrições.

(É preciso dizer que estamos considerando aspectos muito pequenos do seu projeto.) 1. Você está construindo um aplicativo móvel ou HTML que faz o levantamento pesado, em processamento, no cliente?Se você está construindo um cliente grosso que depende apenas de um backend para sincronização e / ou armazenamento, a Firebase é uma ótima opção. A Firebase permite que você armazene documentos complexos NoSQL (ou objetos se é assim que você pensa) e arquivos usando uma API e um cliente muito fácil de usar disponíveis para iOS, Android e Javascript. Há também uma API REST para acesso de outras plataformas.

2. Você está criando um sistema baseado mais em eventos que a interação do usuário? Em outras palavras,Você está criando um aplicativo que responde aos arquivos carregados, ou talvez inicie sessão em outros aplicativos? Você já está olhando para as soluções "sem servidor" ou "Funções como serviço"? Não procure mais do que Cloud Functions. As funções da nuvem permitem que você escreva funções de Javascript que funcionam no Node.js e que podem chamar qualquer uma das nossas API, incluindo Cloud Vision, Translate, Cloud Storage ou mais de 100 outras. Com as Funções da Nuvem, você pode criar funções individuais complexas que ficam expostas como microservices para aproveitar todos os nossos serviços sem ter que manter sistemas e colá-los todos juntos.

3. Sua solução já existe em algum outro lugar? Isso inclui software licenciado? Isso requer outro tipo de HTTP / S?Se você respondeu "não", o App Engine merece uma olhada. O App Engine é uma solução sem servidor que executa seu código em nossa infraestrutura e cobra-lhe apenas pelo que você usa. Escalamos-lo para baixo, dependendo da demanda. Além disso, o App Engine tem acesso a todos os SDKs do Google disponíveis para que você possa aproveitar o ecossistema completo do Google Cloud.

. Você está procurando construir um sistema baseado em contêiner? Você precisa de orquestração? Se você estiver construindo uma solução de vários recipientes, a orquestração se torna uma consideração. A orquestração de contêiner é um serviço que lida com implantação, redundância e distribuição de carga de seus contêineres. Um dos orquestradores mais maduros e populares é Kubernetes. Se você está considerando usar Kubernetes no GCP, você deve usar o Container Engine. (Você deve pensar sobre isso onde quer que você esteja executando Kubernetes na verdade. ) Container Engine reduz a construção de uma solução Kubernetes com um único clique. Além disso, eleva automaticamente os membros do cluster Kubernetes, permitindo que você crie soluções Kubernetes que cresçam e encolhem com base na demanda.


5. Você está olhando para usar GPUs em sua solução? Você está construindo uma solução baseada no recipiente Kubernetes? Você está migrando uma solução on-prem existente para a nuvem? Você está usando software licenciado? Você precisa de um kernel personalizado ou sistema operacional arbitrário? Você não encontrou outra solução para atender às suas necessidades?Se você respondeu "sim" a qualquer uma dessas questões, provavelmente você precisará executar sua solução em máquinas virtuais no Compute Engine. O Compute Engine é o nosso produto de computação mais flexível e permite a você a maior liberdade para configurar e gerenciar suas VMs, como quiser.


Esta não é uma árvore de decisão abrangente, e cada um de nossos produtos oferece suporte a uma gama mais ampla de casos de uso do que é apresentado aqui. Mas este deve ser um bom guia para você começar.

Para descobrir mais sobre ou soluções de computação, confira a Computação na Google Cloud Platform e depois experimente-se hoje mesmo com US $ 300 em créditos gratuitos quando se inscrever .



Por Terrence Ryan, Developer Advocate e Adam Glick, Product Marketing Manager

quarta-feira, julho 26, 2017

ID do evento 1058" e "ID do evento 1030

As políticas de grupo não são aplicadas da forma esperada; são registados os erros "ID do evento 1058" e "ID do evento 1030" no registo de aplicações


Sintomas

No computador baseado no Microsoft Windows XP, as políticas de grupo podem não ser aplicadas como esperado. Quando visualiza o registo de aplicações do Visualizador de eventos, vê dados de erro semelhantes aos seguintes:

Causa

Este problema pode ocorrer se as duas condições seguintes se verificarem: 
  • O computador baseado no Windows XP é membro de um domínio.
  • O cliente DFS da Microsoft está desactivado.
Nota: a partilha \\Nome de Domínio do Active Directory\Sysvol é uma partilha especial que requer que o cliente DFS estabeleça uma ligação.

Nota: este problema também pode ocorrer se "Todos" tiver sido removido das permissões do sistema de ficheiros NTFS da unidade raiz. Se "Todos" tiver sido removido das permissões NTFS da unidade raiz, restaure as permissões NTFS do grupo "Todos" na pasta raiz concedendo a este grupo as permissões NTFS especiais de leitura e execução apenas na pasta raiz.

Resolução

Para resolver este problema, active o cliente DFS. Para efectuar este procedimento, siga estes passos.

Aviso: a utilização incorrecta do Editor de registo poderá provocar problemas graves que poderão forçar a reinstalação do sistema operativo. A Microsoft não garante que os problemas resultantes da utilização incorrecta do Editor de registo possam ser resolvidos. Todo e qualquer risco decorrente da utilização do Editor de registo é da responsabilidade do utilizador.
  1. Clique em Iniciar e clique em Executar.
  2. Na caixa Abrir, escreva regedt32 e clique em OK.
  3. Na janela Editor de registo, localize a seguinte chave do registo:
    HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Mup
  4. No painel de detalhes, à direita, faça duplo clique em DisableDFS

    O cliente DFS está desactivado se o valor na caixa Dados do valor for 1.
    O cliente DFS está activado se o valor na caixa Dados do valor for 0.
  5. Na caixa de diálogo Editar valor DWORD apresentada, escreva 0 na caixa Dados do valor e clique em OK.
  6. No menu Ficheiro, clique em Sair para sair do Editor de registo.
Além disso, active a Partilha de ficheiros e de impressoras em redes Microsoft na interface. Para o fazer, siga estes passos: 
  1. Clique em Iniciar, aponte para Ligar a e clique em Mostrar todas as ligações.
  2. Clique com o botão direito do rato na ligação adequada e clique em Propriedades.
  3. Clique no separador Geral.
  4. Em Esta ligação utiliza os seguintes itens, verifique se a caixa de verificação junto de Partilha de ficheiros e de impressoras em redes Microsoft está seleccionada e clique em OK.

Windows 2003 DFS (Distributed File System)

Windows 2003 DFS (Distributed File System)

Introduction


The Distributed File System is used to build a hierarchical view of multiple file servers and shares on the network. Instead of having to think of a specific machine name for each set of files, the user will only have to remember one name; which will be the 'key' to a list of shares found on multiple servers on the network. Think of it as the home of all file shares with links that point to one or more servers that actually host those shares. DFS has the capability of routing a client to the closest available file server by using Active Directory site metrics. It can also be installed on a cluster for even better performance and reliability. Medium to large sized organizations are most likely to benefit from the use of DFS - for smaller companies it is simply not worth setting up since an ordinary file server would be just fine.

Understanding the DFS Terminology
It is important to understand the new concepts that are part of DFS. Below is an definition of each of them.

Dfs root: You can think of this as a share that is visible on the network, and in this share you can have additional files and folders.

Dfs link: A link is another share somewhere on the network that goes under the root. When a user opens this link they will be redirected to a shared folder.

Dfs target (or replica): This can be referred to as either a root or a link. If you have two identical shares, normally stored on different servers, you can group them together as Dfs Targets under the same link.
The image below shows the actual folder structure of what the user sees when using DFS and load balancing.



Figure 1: The actual folder structure of DFS and load balancing

Windows 2003 offers a revamped version of the Distributed File System found in Windows 2000, which has been improved to better performance and add additional fault tolerance, load balancing and reduced use of network bandwidth. It also comes with a powerful set of command-line scripting tools which can be used to make administrative backup and restoration tasks of the DFS namespaces easier. The client windows operating system consists of a DFS client which provides additional features as well as caching.

Setting Up and Configuring DFS


The Distributed File System console is installed by default with Windows 2003 and can be found in the administrative tools folder. To open, press Start > Programs > Administrative Tools > Distributed File System or in the Control Panel, open the Administrative Tools folder and click on the Distributed File System icon. This will open the management console where all the configuration takes place.
The first thing you need to do is create a root. To do this, right click the node and select New Root.
Press next on the first window to be brought to the screen where you will have to make the choice of creating either a stand alone or domain root. A domain root will publish itself in Active Directory and supports replication, whereas a stand alone root does not. If you have an AD Domain Controller set up on your machine, I recommend choosing the domain root.
Note: The root would be the top level of the hierarchy. It is the main Active Directory container that holds Dfs links to shared folders in a domain. Windows 2003 allows your server to have more than one root - which wasn't the case in Windows 2000. 

The next screen is the one where you have to select which trusted domains will be hosted. Since I only have one domain in my network, only domain.com is visible.
Once this is done you have to select a server on that domain - in my example it is netserv. The FQDN (Fully Qualified Domain Name) of this host server is netserv.domain.com.



Figure 2: inputting the host server name

The following screen allows you to specify the root name of your primary DFS root. You should give it something which will accurately define the contents of that share.
In my example I have called this root "Company" - which would be a real name of an ogranization. You can change this to anything you want. You might wish to have a root called "Documents" - which would clearly state that one can expect to find anything related or specific to documents, and documentation in that root. 



Figure 3: entering the dfs root name

You will now have to select the location of a folder in which all the files will be stored.



Figure 4: selecting the root share

Tip: for added security, when selecting a folder, try to choose one that is located on a partition other than that of the operating system.
Your DFS root is now configured and visible in the configuration console. Right click the root target and press Status to check if it is online or not.
A green check mark verifies that everything is working properly and that the node is online, whereas a red X means that there is a problem.

To add a new link, right click the root for which you want the link to be created, and select New Link.
In the "New Link" screen, enter a name and path for the link and click OK. Repeat this for as many links as you need to create.



Figure 5: creating a new link

Links are visible right under the node. Below is a screenshot displaying the three links I have created for the COMPANY root.



Figure 6: dfs root and three links in the DFS mmc console

Publishing the root in Active DirectoryBy publishing dfs roots in AD as volume objects, network users will be able to search for shares more easily and administration can be delegated.

To do this right click the desired dfs root, select Properties and go to the Publish tab. Enter the appropriate details in each box and press OK.
In the keywords section you can specify certain words that will help locate the dfs root when it is being searched for.



Figure 7:
 publish tab in the dfs properties window

The dfs root will now be published in Active Directory.

File Replication Services

There are two types of replication:
* Automatic - which is only available for Domain DFS
* Manual - which is available for stand alone DFS and requires all files to be replicated manually.
The four ways in which replication can be achieved between two or more servers are:
- Ring
- Hub and Spoke
- Mesh
- Custom
The first three refer to network topologies and the last allows you to specify an advanced method of replication, which can be tuned to your needs.

The advantages and disadvantages of replication are as follows:
Advantages - client caching, integration with IIS, easy to administer and setup.

Disadvantages - limited configuration options, there is no method of programmatically initiating a replication session.

Conclusion


We have seen how with the use of the Windows 2003 Distributed File System, one is able to manage data more efficiently. The new and improved features make data management and distribution faster and more effecient because users are able to find what they need when they need it. Having highly available and reliable file services means that the total cost of ownership is kept low - making the life of an administrator much easier when it comes to managing data!

terça-feira, julho 25, 2017

Balanceamento de carga entre servidores


Quando se lê o titulo acima, pensa-se em métodos como o cluster de servidores. Mas o propósito deste texto não é ensinar ninguém a fazer uma implementação deste tipo de tecnologia ou de nenhuma tecnologia similar e sim discutirmos com o que nos deparamos freqüentemente, mas custamos a entender. Nem sempre a culpa da lentidão de rede é da própria rede, seus equipamentos ou muito menos dos servidores.
Nos deparamos com problemas de arquiteturas de redes que foram feitas em uma época onde os usuários não sabiam o poder de uma rede de computadores e muito menos como usar seus recursos e possibilidades. Com o advento da Internet e a massificação dessa cultura on-line, as pessoas trouxeram para dentro da empresa o costume de usar a rede e aprenderam como usá-la. Mas e os servidores?? O que eles têm a ver com essa história?? Bem, para as empresas onde o negócio principal está diretamente relacionado ao acesso de usuários, como ISPs, ASPs e afins, fazer o balanceamento de carga entre servidores, diversificá-los e planejá-los, levando-se em consideração a quantidade de acesso por segundo e aplicações que nele residem, faz parte do trabalho. Empresas que não trabalham com essa linha de negócios não é usual encontrarmos esse tipo de preocupação.
Quando analisamos um portal Internet encontramos aproximadamente uma centena de servidores para o mesmo conjunto de tarefas. Enquanto empresas de cerca de 3.000 micros em sua rede de produção contam, normalmente, com apenas uma dezena deles, não é raro que esses servidores tenham funções diferentes e capacidades diferentes. Quando encontramos servidores iguais, provavelmente, estão como forma de redundância e não balanceiam a sua carga. No momento da mudança da arquitetura de uma rede local para uma rede mais rápida, baseada em switchs e portas Fast Ethernet com o backbone em Gigabit Ethernet, nunca encontrei quem perguntasse ou soubesse qual a quantidade de acesso que um servidor recebia ou mesmo se a aplicação que nele contém suporta a quantidade de acesso.
O balanceamento de carga entre servidores faz parte de uma solução abrangente em uma explosiva e crescente utilização da rede e da Internet. Provendo um aumento na capacidade da rede, melhorando a performance, um consistente balanceamento de carga, mostra-se hoje, como parte integrante de todo o projeto de Web Hosting e e-commerce. Mas não se pode ficar com as idéias presas de que isso é só para provedores, devemos aproveitar as suas características e trazermos para dentro das empresas esse modo de usar a tecnologia para atendermos os clientes internos das empresas.
Quando não fazemos o balanceamento de carga entre servidores que possuem a mesma capacidade de resposta a um cliente, começamos a ter problemas pois um ou mais servidores podem responder a requisição feita e a comunicação fica prejudicada. Por isso devemos colocar o elemento que fará o balanceamento entre os servidores e os usuários e configurá-lo para isso, entretanto podemos colocar múltiplos servidores de um lado que, para os clientes, eles parecerão ser somente um endereço. O elemento de balanceamento terá um endereço, por onde os clientes tentarão fazer contato, chamado de Virtual Server (VS), que redirecionará o tráfego para um servidor do pool de servidores. Esse elemento deverá ser um software dedicado a fazer todo esse gerenciamento, ou poderá ser um equipamento de rede que combine performance do hardware e software para fazer o passagem dos pacotes e o balanceamento de carga em um só equipamento.
Devemos ressaltar três pontos principais para que uma implementação em um ambiente com balanceamento de carga nos servidores seja realizada com sucesso: o algoritmo usado para o balanceamento de carga, levando-se em consideração como é feito o balanceamento entre os servidores e quando um cliente fizer uma requisição para o endereço virtual (VS), todo o processo de escolha do servidor e resposta do servidor deve ocorrer de modo transparente e imperceptível para o usuário como se não existisse o balanceamento. O segundo ponto é o método usado para checar se os servidores estão vivos e funcionando, vital para que a comunicação não seja redirecionada para um servidor que acabou de ter uma falha. O terceiro ponto é o método usado para se ter certeza que um cliente acesso o mesmo servidor quando quiser.
A peça final em um ambiente com balanceamento de carga é a disponibilidade. Em um ambiente critico é necessário que dois ou mais equipamentos para o balanceamento de carga sejam instalados pois se um falhar o outro assume e o acesso à rede permanece inalterado. Isso pode ser feito com a implementação de VRRP ou algo similar para mantermos a confiabilidade e disponibilidade da rede.
Balanceamento de carga entre servidores é muito mais que um simples redirecionamento de tráfego dos clientes para múltiplos servidores. Para implementarmos corretamente, o equipamento que fará o balanceamento precisa ter características como checagem permanente da comunicação, checagem dos servidores e capacidade de redundância. Todos esses ítens são necessários para que suporte o crescente volume de tráfego das redes sem vir a se tornar um gargalo ou um ponto único de falha.
Ricardo Alem
ESSE - Enterasys Security Systems Engineer
Enterasys Networks do Brasil


http://www.enterasys.com/br/products/whitepapers/wp-server-loading-balance.html

segunda-feira, junho 26, 2017

Reencaminhar chamadas do telefone fixo PT MEO ou outros
























Para reencaminhar todas as chamadas
      • ​Ativar: *21* n.º de destino #
      • Desativar: #21#
      • Ver se o serviço está ativado ou desativado: *#21#
Reencaminhar apenas as chamadas não atendidas
      • ​​​Ativar: *61* n.º de desti​no #
      • Desativar: #61#
      • Ver se o serviço está ativado ou desativado: *#61#
Reencaminhar as chamadas apenas quando o telefone está desligado ou sem rede
      • Ativar: *62* n.º de destino #
      • Desativar: #62#
      • Ver se o serviço está ativado ou desativado: *#62#
Reencaminhar as chamadas apenas quand​o o telefone está ocupado
    • ​Ativar: *67* n.º de destino #
    • Desativar: #67#
    • Ver se o serviço está ativado ou desativado: *#67#

LinkWithin

Related Posts Widget for Blogs by LinkWithin