quinta-feira, 29 de maio de 2014

Estrutura Condicional "se"


Olá, nessa postagem venho falar um pouco sobre estruturas condicionais, mais especificamente a estrutura condicional "se".

Mas o que são estruturas condicionais ?

Estruturas condicionais são instruções para testar se uma condição é verdadeira ou falsa, podendo assim decidir se executa ou não um comando ou pilha de comandos.
A estrutura condicional mais básica é a estrutura "se" (no inglês, "if"), ela é encontrada em todas as linguagens (com sintaxes diferentes) e consiste em executar instruções caso uma condição se realize.
A estrutura "se" tem duas formas: simples e composta.

A forma simples apenas testa se a condição é satisfeita e executa uma ou mais instruções se a condição for verdadeira, e se for falsa a estrutura é finalizada sem executar as instruções.
Em pseudocódigo, é representado por "se" e em C é representado por "if".


A sintaxe dessa estrutura é a seguinte:


Em pseudocódigo:   

                                 se (condição) então
                                 (lista de instruções)
                                 fim
Em C:

                                if (condição) {
                                (lista de instruções);
                                 }







Existe ainda a forma composta da estrutura "se", que além de testar a condição e executar as instruções no caso das condições serem verdadeiras, executa outra pilha de instruções no caso das condições serem falsas.
Em pseudocódigo é denotado por "se"..."senão", e em C: "if"..."else".



A sintaxe dessa estrutura é a seguinte:

Em pseudocódigo:
                se (condição) então
               (lista de instruções A)
                senão
               (lista de instruções B)
                 fim
Em C:
                 if (condição) {
                 (lista de instruções A);
                  }
                  else {
                  (lista de instruções B);
                   }

Se a condição for verdadeira apenas o comando A será executado, se for falsa, apenas o comando B.


As estruturas condicionais são de extrema importância na vida de um programador, pois são elas que irão decidir se serão tomadas certas ações.
Ex.: Se login e senha estiverem corretos, então é liberado o acesso, se não, é emitida uma mensagem de erro.

Espero que tenha entendido, qualquer dúvida ou sugestão deixe nos comentários.


                    Linguagem C - Estruturas Condicionais

Array: O tipo de estrutura de dados mais simples



Array ou vetor é a estrutura de dados mais simples. Mas, afinal de contas, qual a utilidade de uma estrutura de dados? Simples, ela basicamente lhe dá o poder de: estudar, manipular, organizar, salvar e extrair informações de uma grande quantidade de dados. Ficou claro? Não? Vamos melhorar um pouco:

Imagine que você foi contratado para criar um programa em C para uma escola.
Nesse programa você tem que armazenar as notas dos alunos, nomes, médias, nome dos pais, faltas e tudo mais.

E aí? Vai declarar quantos inteiros pra armazenar as notas? Centenas? Milhares?
E quantos caracteres para armazenar esses nomes?
E quantos floats para armazenar as notas e médias, de cada matéria, para cada aluno?

É quase que humanamente impossível fazer isso. Mas não se preocupe, pois você programa em C e tem total domínio de sua máquina, você não perderá tempo declarando inúmeras variáveis, fará com que o computador faça isso pra você. É por isso que temos o array, para automatizar esse processo para que não precisemos declarar, inicializar e fazer outras operações em nossas variáveis de um modo manual. Agora que você já sabe a importância de uma estrutura de dados, vamos focar no array.

Arrays são variáveis que servem para guardar vários valores do mesmo tipo de forma uniforme na memória. Por exemplo, se tivemos que criar 20 variáveis do mesmo tipo que querem dizer a mesma coisa, nós não criaríamos -> int x1, x2, x3, x4, x5, ... ao invés disso, criaríamos apenas uma variável de array para guardar todos os 20 números de uma vez. Exato, simples desse jeito. E para finalizar, veja a sintaxe de declaração de um array em C:

tipo nome[numero_de_elementos];

Exemplo: int notas[100];

Mas como funciona exatamente um array? Ficou curioso? Fique atento para os próximos posts!

Fontes: 

quarta-feira, 28 de maio de 2014

Startups e Big Data


No post anterior tivemos uma breve noção de Big Data, que se trata uma nova metodologia que visa controlar grande fluxo de dados não estruturados, então pormos nos questionar onde trabalhar e se realmente é viável seguir nessa área de que certo modo abrange tudo e nada ao mesmo tempo, podemos notar que a metodologia associada a Big data esta relacionado a grandes empresas ou um conglomerado delas, então porque não conhecer alguma startups que possuem potencial para se tornarem grandes, esse é uma repasse de uma matéria para quem sabe você caro calouro elaborar seu currículo de acordo com essa demanda.



WibiData

Fundada em 2010 em São Francisco, a WibiData comercializa ferramentas que permitem que clientes de varejo e finanças construam suas próprias grandes aplicações de dados, incluindo aplicativos móveis e de SaaS (software como serviço).
Christophe Bisciglia anteriormente é o co-fundador da empresa, e antes da WibiData ajudou a criar a Cloudera, startup já bem conhecida do mercado de TI. Aaron Kimball, que também é co-fundador, foi o primeiro engenheiro contratado na Cloudera. Ambos arrecadaram mais de 20 milhões de dólares do NEA, Canaan Partners, do presidente do Google Eric Schmidt, do CEO da Cloudera Michael Olson, e dos “investidores anjo” Ron Conway e David Lee.

Hadapt 

Fundada em 2011 em Cambridge, Massachusetts, a plataforma analítica adaptativa da Hadapt combina SQL, tecnologia utilizada em bancos de dados tradicionais, com o Hadoop, uma nova tecnologia capaz de processar e analisar enormes quantidades de dados. A ideia é permitir que os clientes utilizem um único sistema para banco de dados e análise.
Daniel Abadi, cientista-chefe e co-fundador, escreveu uma dissertação sobre bancos de dados de armazenamento colunar (um novo tipo de banco de dados que possui desempenho melhor que os tradicionais), enquanto estudava no MIT, que levou à criação da Vertica, empresa adquirida pela HP em 2011. Kamil Bajda-Pawlikowski, arquiteto-chefe de software, também é co-fundador no projeto. Ambos já levantaram 17 milhões de dólares com a Atlas Venture, Bessemer Venture Partners e Norwest Venture Partners.
Fundada em 2012 também em Cambridge, Massachusetts, a Sqrrl foi criada com base no Apache Accumulo, um banco de dados NoSQL em código aberto desenvolvido pela agência de segurança nacional americana com sofisticada tecnologia de segurança embutida. O Accumulo deriva do BigTable, tecnologia de armazenamento de dados inventada pelo Google. Adam Fuchs, co-fundador e CTO da empresa, também foi quem ajudou a construir o Apache Accumulo. Ele conseguiu cerca de 2 milhões de dólares da Atlas Venture e Matrix Partners para o projeto.

Domo foi fundada em 2010 em American Fork, Utah, e tem como missão construir um software que apresente análises de Big Data em painéis e gráficos de forma que os tomadores de decisão nas empresas possam interpretar facilmente. O CEO da Domo, Josh James, fundou a Omniture em 1996 e a vendeu para a Adobe pela bagatela de 1,8 bilhão de dólares em 2009. Para seu projeto com a Domo, Josh captou 120 milhões de dólares com a GGV Capital; Greylock Partners; Bezos Expeditions, co-CEOs Aneel Bhusri e David Duffield da Workday; Founders Fund; Mercato Partners, IVP e Fraser Bullock, da Sorenson Capital.
Fundada em 2012 na cidade de Nashua, em New Hampshire, a DataGravity incorpora tecnologia de Big Data em sistemas de armazenamento para torná-la acessível a empresas de médio porte. A tecnologia ainda está em fase de maturação. A CEO e co-fundadora Paula Long foi também co-fundadora da EqualLogic e vendeu a empresa para a Dell em 2008 por 1,8 bilhão de dólares. John Joseph, ex-executivo da EqualLogic, também é co-fundador da empresa. Ambos arrecadaram 42 milhões de dólares da Andreessen Horowitz, Charles River e General Catalyst.

Fundada em 2012 também em Cambridge, Massachusetts, a Data Tamer ainda está em estado de maturação. A tecnologia é baseada em pesquisas feitas no MIT, Brandeis, e no Instituto de pesquisa em computação do Qatar (Qatar Computing Research Institute). “Data Tamer permite às organizações integrar e apurar várias fontes de dados existentes e futuros de forma eficiente e em larga escala”, explica nota no site da empresa. Os fundadores são o professor do MIT e “guru” do banco de dados Dr. Michael Stonebraker, com capital semente do investidor Andy Palmer, que também foi co-fundador da Vertica, VoltDB e outras empresas. Investimentos também foram feitos pelo Google Ventures e NEA, cujo montante não foi revelado.

Continuuity

Fundada em 2011 em Palo Alto, Califórnia, a Continuuity oferece uma plataforma como serviço (PaaS) para desenvolvimento de aplicativos que se conectam a enormes repositórios de dados. Co-fundadores Todd Papaioannou e Nitin Motgi trabalharam em projetos de Big Data no Yahoo! e em outras empresas. Jonathan Gray, o outro co-fundador, liderou projetos de Big Data no Facebook. A empresa também possui engenheiros da Teradata, Microsoft e da comunidade open source. A Continuuity arrecadou 12,5 milhões de dólares de fundos de investimento da Battery Ventures, Ignition Partners, Andreessen Horowitz, Data Collective e Amplify Partners.
Fundada em San Mateo, Califórnia, e Austin, Texas, a DataStax comercializa a versão empresarial do Apache Cassandra, um banco de dados NoSQL. O CTO Jonathan Ellis e o vice-presidente Matt Pfeil, que co-fundaram a empresa, vieram da Rackspace. Ambos arrecadaram cerca de 40 milhões de dólares com investidores, incluindo a Lightspeed Venture Partners, Crosslink Capital e Meritech Capital Partners.
Fundada em 2010 em Redwood, Califórnia, a Sumo Logic vende um serviço baseado em nuvem que gerencia e analisa dados de log provenientes de hardware e aplicativos de uma empresa para verificar se funcionam corretamente. Co-fundadores Saurabh Kumar e Christian Beedgen vieram da ArcSight, empresa adquirida pela HP em 2010 por 1,5 bilhões de dólares. Ambos levantaram cerca de 50,5 milhões de dólares da Accel Partners, Greylock Partners e Sutter Hill Ventures.
Fundada em San Mateo, Califórnia, a Datameer comercializa um aplicativo executado no Hadoop para que seus usuários possam integrar, analisar e visualizar Big Data. O staff da empresa é composto por muitos veteranos da tecnologia Hadoop, e o CEO Stefan Groschupf foi um dos primeiros colaboradores do Nutch, o motor de busca de Big Data em código aberto que é uma espécie de primo do Hadoop. A empresa conseguiu cerca de 18 milhões de dólares das investidoras Kleiner Perkins e Redpoint.
Fundada em 2011 em São Francisco, a HStreaming usa o Hadoop para vasculhar e analisar streams de vídeo e dados gerados em tempo real. O CTO Volkmar Uhlig passou cinco anos na IBM Watson Research. Ele também foi arquiteto líder do microkernel L4, parte da tecnologia que controla as funções de telefones celulares e é executada em mais de 1,5 bilhões de dispositivos em todo o mundo. A empresa arrecadou 1 milhão de dólares do Atlas Venture.
Fundada em 2010 em Boulder, Colorado, a Precog – inicialmente batizada de ReportGrid – constrói tecnologia para mídias sociais e web analytics, bem como ferramentas para desenvolvedores de aplicativos de Big Data. Os co-fundadores John De Goes e Kris Nuttycombe eram engenheiros na Socialmedia.com, uma rede social de publicidade adquirida em 2011 pela Living Social. Ambos arrecadaram 2 milhões de dólares da RTP Ventures, Resonant Ventures e Launch Capital, entre outras.
Fundada em San Mateo, Califórnia, a Alpine Data Labs volta-se para o lado de negócio do Big Data, e cria um software que representa visualmente o que acontece interiormente nos fluxos de dados de uma empresa. O presidente e CEO Joe Otto e o diretor de produtos Steven Hillion vieram de uma unidade da EMC de Greenplum, que incubou a Alpine Data Labs. Os executivos captaram 7,5 milhões de dólares para o negócio, vindos da Sierra Ventures, Mission Ventures, EMC, Universidade de Stanford e Sumitomo Bank.
Fundada em 2007 em São Francisco, a Kontagent comercializa serviços de análise para aplicativos móveis e sociais. O co-fundador e CEO Jeff Tseng foi desenvolvedor de software na NASA. Arrecadou 18 milhões de dólares para seu negócio, provenientes da Battery Ventures, Maverick Capital e Altos Ventures.
Acesse o texto original (em inglês) e saiba mais sobre os investidores e empresas de capital de risco que estão por trás das inovadoras empresas de Big Data norte-americanas do momento.
Agora é fazer a graduação de acordo com o perfil de cada empresa e se adequar ao mercado inovador.
Fonte:http://www.businessinsider.com/14-big-data-startups-on-the-rise-2013-6?op=1#ixzz2Vjj3H17J

segunda-feira, 12 de maio de 2014

Big Data

Você sabe o que é Big Data ?

Big Data é um termo popular usado para descrever o crescimento, a disponibilidade e o uso exponencial de informações estruturadas e não estruturadas.
Segundo Edd Dumbill, colaborador da Forbes, Big Data são "Dados que excedem a capacidade de processamento dos sistemas de banco de dados convencionais. Os dados são muito grandes, se movem muito rápido, ou não se encaixam nas restrições de suas arquiteturas de banco de dados. "

Em outras palavras, é um conjunto de tecnologias para captura, armazenamento e análise de grandes volumes de dados.
http://blog.sqlauthority.com/


A novidade no Big Data é lidar com os chamados dados não-estruturados, que até então só podiam ser compreendidos por pessoas. São eles, postagens em mídias sociais, vídeos, geolocalização e comportamentos de clientes que dependem de contexto para ter sentido.

Esses dados não-estruturados representam 85% das informações com as quais as empresas lidam hoje.

Uma das utilizações mais frequentes do Big Data é feita por empresas que utilizam esse recurso para armazenar dados de clientes e, posteriormente, acessá-lo. Isso torna o Big Data importante para o negócio, já que ele é convencional e oferece praticidade e velocidade na recuperação desses dados.
http://siliconangle.com/


As principais características do Big Data são: volume, variedade e velocidade.
  • Volume
O aumento do volume de dados se dá principalmente devido as transações de dados armazenados ao longo dos anos. Esse grande volume de dados criou um problema de armazenamento no passado, mas com os atuais baixos custos de armazenamento isso não é mais um problema.
  • Variedade
Os dados de hoje vem em todos os tipos de formatos. Sejam bancos de dados tradicionais, arquivos de texto, e-mail, medidores e sensores de coleta de dados, vídeo, áudio, dados de ações do mercado e transações financeiras.
  • Velocidade
A velocidade é essencial tanto na produção de dados, quanto no tratamento dos mesmos para atender a demanda.

Problemas com o Big Data

O maior obstáculo seria a privacidade, ou melhor, a ameaça à privacidade representada pelo aumento de armazenamento e integração de informações pessoalmente identificáveis. Se a recomendação de links patrocinados pelo Google já parece invasiva à maioria das pessoas, o mundo e a legislação atual não estão preparadas para as possibilidades que o Big Data oferece de agregar, analisar e tirar conclusões a partir de dados até então dispersos. Grupos de especialistas lançaram várias recomendações de políticas para adequar a prática às expectativas de privacidade.

Depois de ler esse post você deve estar se perguntando: então eu também tenho Big Data ? A resposta é sim. Mesmo que você discorde, qualquer pessoa que tem acesso a mídias sociais ou até mesmo que possui uma conta em um banco ou registro em sites de compras, por exemplo, possuem dados armazenados no Big Data.

Espero ter ajudado. Perguntas e críticas são sempre bem-vindas, deixe nos comentários que procurarei responder a todos.

                   http://pt.wikipedia.org/wiki/Big_data