quarta-feira, 31 de agosto de 2011

Diretor da PS Home acredita que jogos free-to-play são o futuro do mercado


Jack Buser, diretor da PlayStation Home, declarou acreditar que a Home é um grande diferencial em relação aos outros consoles e que o futuro está nos games nos quais é possível jogar de graça ("free-to-play").
A Sony, inclusive, já colocou em seus planos para curto prazo os serviços de jogos sem custo, que chegarão por volta de dezembro. Buser disse em entrevista ao site IndustryGamers que a maior vantagem dos chamados F2P é que as desenvolvedoras podem criar experiências de qualidade em muito menos tempo e com menos capital investido.
Além disso, um diferencial da PlayStation Home é que com ela a Sony oferecerá games para usuários de sua plataforma de mesa, que não vão poder ser adquiridos por donos de outros consoles, como Xbox 360 ou Wii.
Fonte: Baixaki

EA acha que ainda não é hora de nova geração de consoles


O diretor de marcas da Electronic Arts, Frank Gibeau, declarou que os jogadores, em geral, estão felizes com a atual geração de consoles. Tanto PlayStation 3 quanto Xbox 360 ainda fazem a alegria dos gamers e a EA gostaria que o tempo de permanência dessas plataformas perdurasse um pouco mais.
Gibeau, em uma entrevista ao site CVG, questionou o que a Sony e a Microsoft poderiam fazer caso lançassem novos hardwares, uma vez que os video games atuais ainda têm muito potencial a ser explorado. Exemplo disso será o lançamento de Battlefield 3 e seus gráficos cinematográficos, que mesmo assim não exploram 100% da capacidade dos aparelhos.

O diretor da EA pergunta o que seria feito de novo em um possível PlayStation 4, já que os gráficos rodam a 1080p e os consoles já estão conectados à internet. Talvez deixá-los mais rápidos em termos de conexão ou melhorar um pouquinho as imagens, mas a que custo? Gibeau disse que a sua empresa está contente por desenvolver jogos para o PS3 e para o Xbox 360 e não é hora de mudar.

Fonte: Baixaki

Gabe Newell: Steam se tornando primitivo e a ameaça das gigantes


Gabe Newell, cofundador da Valve, comentou que várias companhias deveriam olhar para o futuro em vez de simplesmente tentar copiar o que o Steam, serviço de distribuição digital da companhia, já faz.
Em entrevista ao site Kotaku, Newell afirma que as empresas ainda não entenderam que aquilo que o Steam faz hoje é apenas o começo. “As mudanças são muito dramáticas e o que fizemos com o Steam pode parecer muito primitivo em alguns anos”, comenta o membro da Valve.
Posteriormente, Newell afirma que a companhia está “aterrorizada” com o futuro, principalmente por causa das ameaças de outras gigantes, como a Apple e o Google. Além disso, o cofundador da Valve também está ciente do potencial do serviço OnLive, algo que deve se fortalecer ainda mais no futuro.

Fonte: Baixaki

Aparelho conceitual usa câmeras para prever toques do usuário


Smartphones capazes de reproduzir imagens em três dimensões sem o auxílio de óculos especiais não são exatamente uma novidade. Porém, o Cobble, desenvolvido pelo designer Niels van Hoof, parece levar esse tipo de dispositivo a um novo nível de sofisticação.
O aparelho conceitual possui uma tela de quatro polegadas HD com relação de aspecto 16:9, característica que a torna perfeita para a reprodução de vídeos. Além disso, o dispositivo usa uma câmera para analisar os movimentos do usuário e é capaz de acionar funções antes mesmo que um toque na tela aconteça.
Através da tecnologia “motion scroll”, que ajusta automaticamente o zoom utilizado pelo usuário, o Cobble é capaz de tirar fotografias em alta qualidade. O sistema operacional utilizado não foi indicado pelo desenvolvedor, mas tudo indica que se trata de alguma versão do Windows Phone 7. Para finalizar, o aparelho possui uma variedade de cores capaz de agradar a todos os gostos.

Fonte: Baixaki

Vazam especificações do primeiro ultrabook da Acer


A guerra dos ultrabooks está prestes a começar. Empresas como a Acer e a Asus já haviam anunciado que trariam diversos modelos de aparelhos para a IFA 2011, feira de tecnologia que começou nesta quarta-feira na Alemanha.
Nesta semana, o site Notebook Italia publicou uma página com a provável configuração do produto Acer Ultrabook S3. Embora robusto, as primeiras especificações apontam para um modelo com características aquém do esperado.
O Acer Ultrabook S3 terá um processador Intel Core i5-2467M, 4 GB de RAM e HD de 320 GB (ou SSD opcional de 20 GB). A tela é de 13,3 polegadas e o modelo terá 13 milímetros de espessura. O preço médio do produto deve ficar na faixa de US$ 1,1 mil.
Mais informações sobre o ultrabook Acer S3, além de outros modelos da empresa, devem ser divulgadas oficialmente durante a IFA 2011.

Acer Ultrabook S3 - Especificações

  • Tela: 13,3 polegadas;

  • Processador: Intel Core i5-2467M

  • 4 GB de RAM;

  • HD de 320 GB (opcional SSD de 20 GB);

  • Preço: US$ 1,1 mil.

Fonte: Baixaki

Tecnologia permite fotografar sem se preocupar com o foco


O Centro de Pesquisas Fraunhofer acaba de anunciar uma nova tecnologia que permitirá aos fotógrafos definir qual será o foco das imagens depois de capturadas. A novidade, batizada de Light Field, foi exibida ao público pela primeira vez na IBC 2011, convenção tecnológica que está sendo realizada na cidade de Amsterdam.
Para utilizar a tecnologia é preciso contar com uma lente especial e um software de correção de imagens, ambos incluídos já na câmera. Dessa forma, o fotógrafo pode capturar uma imagem com um enquadramento qualquer e, em seguida, mudar o foco, o ângulo e a profundidade de campo como bem entender.
A novidade pode ser aplicada também a vídeos. Nos testes, os pesquisadores utilizaram uma série de microlentes diante do sensor da câmera. Cada uma delas ficou responsável por capturar a mesma imagem, mas de um ângulo distinto, permitindo aos usuários navegar pelas opções e escolher a mais adequada posteriormente.
Elementos como intensidade de luz, posicionamento e direção também são gravados. A edição da imagem poderá ser feita na própria câmera ou, caso o fotógrafo prefira, diretamente no computador. O resultado final das imagens é salvo em HD, o que garante qualidade final profissional ao processo.

Fonte: Baixaki

Raios laser poderão acabar com a seca

De acordo com uma publicação do MSNBC, os raios laser são capazes de auxiliar no processo de formação da chuva. A pesquisa realizada por Jerome Kasparian (físico da Universidade de Genebra, na Suíça) poderia ser usada para amenizar a falta de água em áreas com clima árido, onde a seca castiga a terra e a população.
 
Um feixe de laser vermelho e da nuvem de partículas geradas, iluminada por um laser verde auxiliar. (Fonte da imagem: J.P. Wolf/University of Geneva)


O estudioso garante que é possível controlar a umidade por meio de raios laser. Em sua pesquisa, ele descobriu que esse tipo de raio promove o crescimento de gotículas de vapor em regiões que estejam com no mínimo 70% de umidade relativa do ar. Devido a essa alta exigência, Kasparian afirma que "ainda estamos bem longe de criar chuvas com raios laser em qualquer lugar".
Até o presente momento, o cientista conseguiu fazer com que as partículas de água crescessem. Porém, o ideal para a precipitação da chuva é que essas gotículas tenham de 10 a 100 vezes o tamanho atingido.
Essa não foi a primeira tentativa de forçar a formação da chuva. Cientistas já lançaram partículas de gelo seco com iodeto de prata para que as gotículas de águas se formassem em torno desse composto. Contudo, até o estudo de Kasparian, nenhuma pesquisa havia ganhado a confiança da comunidade científica.

Fonte: Baixaki

Processo químico é capaz de deixar a pele transparente

Pesquisadores japoneses do Instituto RIKEN de Ciências do Cérebro anunciaram uma descoberta bastante curiosa: um processo químico capaz de tornar a pele humana transparente. Os primeiros testes foram realizados em embriões de ratos e, como você pode perceber na imagem acima, o resultado parece bem convincente.
Para conseguir a modificação na pigmentação dos tecidos os pesquisadores utilizaram um reagente químico chamado ScaleA2. Valendo-se de técnicas de modificação genética, certas células são transformadas em elementos fluorescentes, permitindo que as estruturas biológicas internas possam ser visualizadas externamente a olho nu.
Apesar da descoberta aparentemente funcionar, a técnica ainda não pode ser aplicada em tecidos vivos. Isso acontece porque, ao receber o reagente químico, as células morrem horas depois. Agora, a expectativa do grupo de pesquisadores é descobrir uma maneira de tornar compatíveis o reagente e os tecidos vivos.

Fonte: Baixaki

Sony anuncia o e-reader mais leve do mundo


Foi dado o pontapé inicial na IFA 2011. A Sony foi a primeira empresa de peso a mostrar suas novidades na maior conferência de eletrônicos da Europa. Além de revelar mais detalhes dos tablets Sony S e Sony P, a multinacional anunciou o leitor digital mais leve do mundo e capaz de se conectar a redes sem fio: o Reader Wi-Fi (modelo PRS-T1).
Ao se conectar à internet, o aparelho permite que o usuário baixe e-books via Reader Store (que ainda será lançada) ou bibliotecas públicas virtuais. O PRS-T1 ainda conta com uma tela multitouch, possibilitando que o leitor amplie e reduza o zoom das páginas “pinçando” o display com os dedos.
A bateria do Reader Wi-Fi é duradoura. Segundo a empresa, uma única carga mantém o gadget em funcionamento por três semanas, se o recurso de redes sem fio estiver ativado, e um mês com esse mecanismo desativado (valores calculados a partir de leituras diárias de 30 minutos).
O e-reader da Sony deve chegar às lojas da Europa em outubro por US$ 149 – equivalente a R$ 240 sem o cálculo de impostos e taxas de importação.

Fonte: Baixaki

Pendrive minúsculo pode ter até 2 TB de capacidade

Se depender da desenvolvedora taiwanesa ITRI, poderemos ver no mercado, em não muito tempo, um drive USB minúsculo — mais fino do que uma moeda — com capacidade de até 2 TB. Ele tem tecnologia 3.0 e um modelo de 16 GB já foi exibido durante a Display Taiwan.
A ITRI é um laboratório de inovações patrocinado pelo governo de Taiwan, e responsável por muitas novidades interessantes em termos de tecnologia. A fim de produzir esse drive ultrafino, foi feita uma parceria com a fabricante de eletrônicos Transcend.
O modelo visto no vídeo é de 16 GB. Nenhuma das duas empresas envolvidas se pronunciou oficialmente, mas, segundo informações do site netbooknews.com, a tecnologia utilizada pode chegar aos 2 TB prometidos. Mesmo com a incerteza sobre a capacidade do drive, o tamanho surpreende.
Não há informações sobre lançamento e disponibilidade, uma vez que os desenvolvedores, no momento, aguardam um consenso internacional sobre o padrão USB 3.0. Qual é a sua opinião? Será que teremos drives USB extremamente finos, mas com capacidade tão grande quanto à prometida por esses fabricantes taiwaneses?




Mozilla revela imagens do Firefox para tablets


A Mozilla publicou na última terça-feira (30 de agosto) uma atualização no blog do time de desenvolvimento móvel da companhia mostrando as primeiras imagens do Firefox desenvolvido especialmente para tablets. Segundo a empresa, o navegador é uma evolução da versão para smartphones, incluindo características que tiram proveito da maior área de tela disponível.
 O novo software possui um visual bastante inspirado nas características do sistema operacional Android 3.0 Honeycomb, optando por um design mais minimalista. Características marcantes do navegador se mantêm intactas, como o botão no canto superior esquerdo da tela e a organização e aparência das abas abertas.

Evolução da versão para smartphones

Aqueles já acostumados a usar a versão do Firefox desenvolvida para smartphones vão se sentir em casa com o programa feito para tablets. As principais diferenças da nova versão ficam por conta da inclusão de elementos como uma barra exibindo todas as abas abertas, aproveitando do maior espaço de tela disponível para uma navegação mais confortável.
 

Segundo a Mozilla, os elementos presentes na tela mudarão de posição conforme a orientação do aparelho utilizado. Com isso, a empresa afirma que será possível navegar pela maioria das páginas usando somente um dedo de cada mão. Até o momento, não foi divulgada uma data para o lançamento do produto.

Mozilla Firefox 7 pode utilizar até 50% menos de memória

Firefox 7 será mais eficiente no uso da memória 
A Mozilla divulgou em seu blog oficial que o Firefox 7 usa uma quantidade entre 20% e 30% menor de memória do que as versões anteriores (6, 5 e 4). Ainda é afirmado que por vezes, essa taxa pode ser tão grande quanto 50%. Com isso, a empresa espera que o navegador sofra menos travamentos e outros problemas relacionados a esse consumo.
Os usuários do Firefox já devem ter percebido como anda difícil operar o navegador após algum tempo. Especialmente se você é daqueles que gostam de manter um grande número de abas abertas por um longo período. Como a Mozilla está ciente do problema, devido ao feedback dos usuários, já vinha tentando corrigi-lo.

Histórico

O problema foi amenizado nas versões 3.4 e 3.6 do navegador, no entanto voltou a acontecer com o lançamento da versão 4.0. Por isso, os engenheiros da Mozilla começaram a trabalhar em um projeto chamado MemShrink, que tinha por objetivo aumentar a velocidade e estabilidade do Firefox por meio da redução do uso de memória.
Dessa forma, a versão 7 do navegador promete um aproveitamento mais eficiente da memória utilizada, além de menor possibilidades de travamento quando o usuário trabalha por mais tempo utilizando o Firefox. As versões Aurora e Beta do Firefox já contam com os benefícios e sucessos obtidos pelo MemShrink.

Fonte: Baixaki

Novo visor da Sony promete cinema 3D em 750 polegadas


A Sony anunciou nesta quarta-feira (31 de agosto) que o visor 3D da companhia, apresentado pela primeira vez durante a CES 2011, chegará ao mercado japonês no dia 11 de novembro. Com o nome HMZ-T1, o aparelho se destaca por ocupar toda a visão do usuário e se assemelhar bastante à dispositivos de realidade virtual presentes em alguns filmes.
O dispositivo possui dois painéis OLED de 0,7 polegadas com resolução 1280x720 pixels, cada um posicionado em um dos olhos do usuário. Segundo a companhia, a impressão deixada pelo dispositivo é a de assistir a um televisor de 750 polegadas a 20 metros de distância. O aparelho também possui fones de ouvido com a tecnologia 5.1 surround integrados ao visor.
O visor virá acompanhado por uma unidade de processamento com entradas e saídas HDMI, que permitem conectá-la também a um televisor compatível. O preço cobrado pelo aparelho será de 60 mil yen (aproximadamente US$ 783), e ainda não há perspectivas de quando a novidade deve chegar a outros mercados.

Fonte: Baixaki

Global Internet Speedup aumenta a velocidade da internet mundial


A internet mundial ficou um pouco mais rápida na última terça-feira (30 de agosto), graças a uma iniciativa da iniciativa Global Internet Speedup. Tendo entre seus participantes o OpenDNS, Google e diversas redes de provedores de conteúdo, o movimento mudou a forma como os servidores DNS entregam informações aos computadores conectados à rede mundial de computadores.
A partir da mudança, ao fazer um pedido DNS, o usuário envia os primeiros três octetos de seu endereço IP ao servidor. Tais números contêm informações detalhadas sobre a localização de cada pessoa, o que permite determinar o banco de dados localizados nas distâncias mais próximas.
As informações desejadas são entregues a partir de um cache localizado no servidor mais próximo ao usuário, aumentando a velocidade tanto da navegação quanto dos downloads realizados. Como os dados têm de percorrer um caminho menor, a conexão ganha tanto em agilidade quanto em estabilidade.

Internet mais ágil


O aumento de velocidade deve ser sentido principalmente em grandes serviços como o Google, que possuem servidores com dados armazenados em cache em diversos cantos do mundo. A solução não só reduz o desgaste das conexões internacionais, como permite um melhor aproveitamento de redes nacionais.
Em resumo, ao baixar um arquivo, um usuário brasileiro vai acessar caches localizados dentro do próprio país, em vez de transferi-los a partir de um servidor na Ásia, por exemplo. Apesar de continuar dependendo do número de pessoas conectadas, a velocidade de download em geral deve apresentar uma melhora significativa.

Não é para todos

O lado negativo da história é que, atualmente, a mudança na velocidade está restrita somente aos usuários dos servidores de DNS pertencentes ao Google ou à OpenDNS e aos sites ddesenvolvidos pelos membros participantes da Global Internet Speedup: Google, EdgeCast, CDNetworks, Comodo e CloudFlare.
Não há previsão de quando o incremento de velocidade será incorporado em outros serviços. Porém, o apoio de nomes como a Google deve ser decisivo para que mais empresas se juntem à iniciativa e ajudem a melhorar a qualidade da internet mundial.

fonte: baixaki

terça-feira, 30 de agosto de 2011

Microsoft reduz preços oficiais de jogos do Xbox; Gears 3 será lançado por R$ 129

Img_normal
Em um comunicado publicado no blog oficial Microsoft Insiders Brasil, a companhia anunciou a redução de até 40% nos preços de jogos para Xbox 360 no Brasil. Desse modo, será possível encontrar títulos a partir de R$ 69.
A mudança é válida a partir do dia 1º de setembro juntamente com o início da pré-venda de Gears of War 3, o terceiro título da saga de Marcus Phoenix, que poderá ser adquirido previamente por R$ 129.
Veja abaixo a lista completa de jogos afetados pela medida:

R$69

  • Gears of War

R$79

  • Alan Wake

  • Crackdown 2

  • Forza Motorsport 3

  • Gears of War 2

  • Halo 3

  • Halo 3: ODST

  • Halo Wars

  • Joy Ride

  • Viva Piñata

R$99

  • Dance Central

  • Fable III

  • Kinect Sports

  • Kinectimals

R$129

  • Gears of War 3

  • Halo: Reach

Fonte: Baixaki

Criadores do PirateBay lançam site que proíbe pirataria

Você consegue imaginar os responsáveis pelo PirateBay, um dos maiores sites de torrent do mundo, lançando um serviço que esteja dentro das leis de direitos autorais? É exatamente o que dois empresários suecos que originalmente fundaram a página de downloads resolveram fazer: recentemente, foi ao ar o BayFiles, um site de armazenamento de arquivos que desestimula a pirataria.
Similar a concorrentes como o Rapidshare e o Megaupload (contando até com aqueles 30 segundos de espera antes da transferência começar), o BayFiles afirma que deleta em até duas semanas qualquer arquivo hospedado que quebre alguma regra de direitos autorais.
O site já está funcionando normalmente para cadastros e armazenamento de arquivos. Os planos de uso do site são divididos: usuários não cadastrados têm direito a 250 MB de upload por arquivo, enquanto os registrados podem armazenar dados que tenham até 500 MB.
Há ainda um serviço pago, que cobra cerca de US$ 7 mensais a fim de aumentar o limite de tamanho para até 5 GB, além de fornecer espaço ilimitado para guardar seus arquivos favoritos.

Fonte: Baixaki

Arkham City para PC terá funcionalidades da LIVE, afirma Warner Bros


A Warner Bros. desmentiu as afirmações em relação à exclusão de Batman: Arkham City das funcionalidades da LIVE. “Arkham City é, de fato, um título para a Games for Windows LIVE”, afirmou um representante da empresa ao site VG247.
O anúncio de que não haveria funcionalidades da rede da Microsoft em Arkham City havia sido emitido pela varejista online Green Man Gaming. Segundo a loja, a WB havia emitido um aviso informando que o game seria “Games for Windows”, mas não “Games for Windows LIVE” — o que impediria associações com contas da LIVE, excluindo conquistas e outros recursos relacionados.
Batman: Arkham City tem lançamento previsto para o dia 18 de outubro. Fique ligado no BJ para mais novidades.

Fonte: Baixaki

Descoberta sobre grafeno pode criar internet ultrarrápida

Reuters - Cientistas britânicos desenvolveram uma maneira de usar o grafeno, o material mais fino do mundo, para capturar e converter mais luz do que era possível anteriormente, o que abre caminho a avanços na Internet de alta velocidade e outras formas ópticas de comunicação.
Em um estudo publicado pela revista Nature Communication, a equipe, que inclui Andre Geim e Kostya Novoselov, cientistas premiados com o Nobel no ano passado, descobriu que, ao combinar grafeno e nanoestruturas metálicas, o volume de luz que o grafeno é capaz de absorver e converter em energia elétrica aumentava em 20 vezes.
O grafeno é uma forma de carbono com espessura de apenas um átomo, e ainda assim 100 vezes mais forte que o aço.
"Muitas das maiores companhias de eletrônica estão considerando o grafeno para sua próxima geração de aparelhos. Esse trabalho reforça as chances do grafeno ainda mais", disse Novoselov, cientista russo que, com Geim, conquistou em 2010 o Nobel de Física por suas pesquisas sobre o grafeno.
Trabalhos anteriores tinham demonstrado que é possível gerar energia elétrica ao instalar duas estruturas metálicas de entrelaçamento fino sobre uma base de grafeno, e fazer com que todo o aparato receba luz, convertendo-o na prática em uma célula solar simples.
Os pesquisadores explicaram que, devido à mobilidade e velocidade especialmente elevada dos elétrons no grafeno, essas células produzidas com o material podem atingir velocidades incrivelmente rápidas, dezenas ou potencialmente centenas de vezes mais rápidas que as oferecidas pelos cabos de Internet mais velozes hoje em uso.
O principal obstáculo a aplicações práticas até o momento vinha sendo a baixa eficiência das células, segundo os pesquisadores. O problema é que o grafeno absorve pouca luz -apenas cerca de três por cento; o restante passa pelo material sem contribuir para a geração de energia.
Em uma colaboração entre as universidades de Manchester e Cambridge, a equipe de Novoselov constatou que o problema poderia ser resolvido por uma combinação entre grafeno e as minúsculas estruturas metálicas conhecidas como nanoestruturas plasmônicas, dispostas em padrão especial por sobre o grafeno.
Essa disposição permitiu que o desempenho de absorção de luz do grafeno melhorasse em 20 vezes, sem sacrifício de velocidade, a equipe afirmou no estudo. A eficiência pode ser ainda mais melhorada no futuro, afirmaram.

Fonte: Baixaki

Intel Itanium Poulson: poder de processamento monstruoso para servidores

Costumeiramente focamos nossos artigos sobre hardware no ramo de desktops, pois produtos voltados a esse mercado são os que chegarão até você. Hoje, todavia, vamos fugir da rotina e falar de outro tipo de computadores: os servidores.
E se falamos de servidores, vamos ao que há de mais novo, que é uma nova série da linha de processadores Intel Itanium. Portanto, hoje, você vai conferir algumas informações sobre o futuro dessa série, como a concorrente está se portando e entender o porquê de tanto poder num único chip.

O início do Itanium

A linha de processadores Intel Itanium foi lançada em 2001. Baseada na arquitetura EPIC, criada pela HP, essa série era voltada a servidores e teve grande repercussão num primeiro momento. O que a tornava diferente era a arquitetura IA-64, a primeira a trazer suporte para instruções de 64 bits no ramo de servidores.
Ocorre que CPUs Itanium não tiveram sucesso algum, sendo consideradas como um grande fracasso da Intel. Apesar de inovadoras e robustas, tais unidades não tiveram mercado para atender, visto que traziam uma tecnologia que exigia mudanças significativas nos sistemas operacionais e nos aplicativos.
As dúvidas quanto à utilização de um Itanium sempre ocorreram. O motivo é simples: ele é compatível apenas com instruções de 64 bits, sendo impossível executar quaisquer softwares 32 bits. Tal detalhe afastou muitos consumidores — ou seja, administradores de redes de grandes companhias — dessa linha de CPUs, visto que alguns aplicativos não tinham versões de 64 bits (ou porque simplesmente não compensava investir em licenças novas).
Nota: atualmente, alguns softwares rodam por emulação nas CPUs Intel Itanium. O resultado, porém, nem sempre é satisfatório e depende muito do sistema operacional utilizado.
A Intel, no entanto, não recuou e investiu alto nos processadores Itanium. Prova disso é o lançamento dos processadores Itanium de codinome Tukwila, que chegaram ao mercado em 2010. Modelos da linha Itanium 9300 Series trazem até quatro núcleos e no máximo 24 MB de memória cache L3.
Mostrando empenho em manter tais CPUs vivas, a fabricante revelou no início do ano — e confirmou no dia 19 de agosto — que vai insistir na linha Itanium com uma nova leva de processadores de codinome Poulson. Abaixo detalharemos um pouco sobre as informações que foram divulgadas sobre os novos chips.

Mais de 3 bilhões de transistores

As primeiras informações impactantes da linha Poulson dizem respeito à miniaturização do processador. Com o tamanho reduzido de 699 mm² para 544 mm², a inclusão de mais de 1 bilhão de transistores e o processo de fabricação de 32 nm (nos Tukwila, era usado o de 65 nm), a Intel pretende criar um chip menor e mais potente.
Outra grande mudança é no quesito desempenho. A fabricante duplicou a quantidade de núcleos — passando de quatro para oito cores — nos modelos mais potentes, assim ela criou modelos capazes de trabalhar com até 16 threads. Para acompanhar esse aumento de processamento, as CPUs da série Poulson trarão até 32 MB de cache L3, e no total um máximo de 54 MB de memória cache.
A arquitetura do Itanium Poulson também é diferente. Além das diferenças físicas, os novos modelos contam com funções inovadoras, as quais vêm para aprimorar o desempenho com aplicativos mais robustos. A mais notória é a função Intel Instruction Replay Technology, a qual funciona como um buffer para eventuais recuperações contra erros. Com essa novidade, o processador consegue obter a última informação útil sem ter de reiniciar o processo do zero.
A linha Poulson ainda trará novas instruções e melhorias em diversos aspectos. Entre tantas novidades, uma que vem a calhar é a largura de banda, que tem um amento de 33%, possibilitando velocidades mais altas e maior quantidade de dados trafegando.
E considerando os novos softwares, a arquitetura Poulson contará com novos dados, instruções de pipelines, pontos flutuantes e instruções de buffer. A nova série de CPUs Itanium chegará apenas em 2012, contudo, a boa notícia para os administradores de grandes redes é que os novos processadores usarão o mesmo soquete dos Tukwila, ou seja, basta adquirir um Poulson e instalá-lo na placa-mãe para ver grandes diferenças no processamento.

A concorrente vem com tudo

Não é de hoje que a AMD bate de frente com a Intel, contudo, por incrível que pareça a AMD não tem um produto específico para brigar com o Itanium. O Opteron é o processador da AMD voltado ao mercado de servidores, no entanto, sua arquitetura e desempenho comprovam que ele foi feito para dividir mercado com o Xeon, da Intel.
E apesar de, em algumas situações, o Opteron ser um produto mais fraco, ele consegue superar até os recentes Poulson em algumas características. Enquanto os futuros chips da Intel trarão oito núcleos, a AMD já comercializa processadores com doze.
Os modelos mais avançados da linha Opteron trazem apenas 12 MB de cache L3, todavia, essa quantidade de memória tem sido suficiente para gerenciar os softwares mais recentes com boa velocidade. A AMD ainda não anunciou detalhes sobre o futuro das CPUs para servidores, no entanto, a briga deve continuar quente, ainda mais que a AMD comercializa produtos tão robustos quanto os da Intel, mas com preços mais baixos.

Para que tudo isso?

Talvez você nunca tenha visto as especificações de um servidor. E agora pode vir uma surpresa: uma única máquina que faça parte de um servidor pode contar com quatro ou mais processadores. Imaginar a real potência de um computador desse tipo não é fácil, ainda mais que nossos padrões de referência, geralmente, são jogos e programas como AutoCAD.
Não que softwares e games de última geração para desktops não sejam “pesados”, mas ocorre que o nível de desempenho dos servidores está num outro patamar. Desse modo, também são completamente diferentes os aplicativos que são executados em máquinas servers.
A primeira diferença está no sistema operacional, que muitas vezes nem utiliza interface gráfica. Outras mudanças notáveis estão nos programas que são executados, ou seja, não pense que usam máquinas desse tipo para brincar com Photoshop ou CorelDRAW. Claro, CPUs desse naipe são capazes de executar diversos aplicativos como esses sem quaisquer dificuldades, mas o propósito do alto nível de processamento é outro.
Como o próprio nome sugere, servidores são próprios para servir outras máquinas. Eles funcionam como computadores-mestres, que cuidam de grandes sistemas, os quais mantêm uma rede estável e possibilitam que uma empresa execute softwares específicos para atender a um grande público — seja local ou remoto.
Tome como exemplo um servidor da Google. Eles são compostos por diversas máquinas interligadas e cada qual conta com múltiplos processadores (não vamos nos referir a marcas aqui). O poder de processamento de um servidor desses, por exemplo, é capaz de sustentar múltiplas requisições do YouTube.
Caso o mesmo trabalho fosse realizado por CPUs voltadas para desktops, atender a um mesmo nível de requisições poderia demorar 20 vezes mais tempo — isso se formos modestos e estivermos supondo que um processador de última geração é realmente poderoso. Assim, basicamente, se não houvesse chips como o Itanium, Opteron ou Xeon, usar a web seria muito demorado, pois os servidores não conseguiriam atender a tantos pedidos.

Um atraso de muitos anos nos desktops

Não há uma estatística ou estudo que comprove essa teoria, mas fazendo uma análise básica no lançamento dos processadores, tanto da Intel quanto da AMD, podemos concluir que atualmente existe um atraso de mais de cinco anos para que as CPUs para desktop alcancem um desempenho similar ao dos servidores.
Isso quer dizer que para uma CPU voltada aos desktops conseguir alcançar o nível de um Xeon ou Opteron comercializado atualmente será preciso esperar até 2016. Claro, esse tempo está se reduzindo gradualmente, pois tanto a AMD quanto a Intel vêm lançando e anunciando processadores absurdamente potentes para desktops.
 
Talvez na competição entre uma única CPU contra outra, o desempenho se iguale antes do que prevemos. Contudo, quando falamos das máquinas como um todo, não há como apostar que um desktop conseguirá um desempenho de ao menos 10% de um servidor por um simples motivo: as placas-mãe compatíveis com Itanium e outros processadores de servidores possibilitam instalar múltiplos processadores.

Não existe motivo para tristeza

Com certeza bateu um pouco de tristeza ao saber que seu amado Intel Core i7 de última geração não chega aos pés de um Itanium. Entretanto, não existe razão para choro, pois os processadores de desktops atuais oferecidos pelas fabricantes são mais do que excelentes para todas as atividades. Você já conhecia algum processador como o Itanium? Sinta-se à vontade para comentar!

Fonte: Baixaki

Hackers obtêm certificado da Google para legalizar sites com vírus e phishing


Um grupo de hackers roubou um certificado digital SSL que valida qualquer página como sendo integrante da Google. O crime ocorreu em um banco de dados digital na Holanda, o DigiNotar, que acumula vários documentos de validação no mesmo provedor.
Segundo o DarkReading, com o certificado em posse, é possível autentificar qualquer site como sendo seguro – e aprovado pela gigante de Mountain View. Essa é uma enorme brecha para a criação de sites que copiem o visual do Gmail, do site de buscas ou de qualquer outro serviço da Google, utilizando essas páginas para alastrar vírus e realizar ataques por phishing, por exemplo.
Com a validação, que credencia o site como seguro, nem o navegador ou softwares de segurança emitiriam um alerta de invasão. Para assegurar a validade do certificado, detalhes do documento foram postados no Pastebin, comprovando que dados de usuários do Gmail podem estar em risco.

Procedimentos de segurança

Alguns ataques no estilo man-in-the-middle (com o invasor sendo um intermediário entre o usuário e o servidor – no caso, a Google) a partir do certificado roubado da DigiNotar já foram registrados nesta semana na região do Irã.
Em um post no blog de segurança da Google, a empresa deixa claro que a companhia já está trabalhando para revogar o certificado. Além disso, segundo a mensagem, os usuários do Google Chrome estão livres dessa praga, pois o navegador identifica o certificado roubado como um item falso. A Mozilla e a Microsoft também já lançaram um aviso de segurança similar, que deve proteger os usuários contra boa parte das tentativas de invasão.

Fonte: Baixaki

iPad: a concorrência tentou, mas ele ainda reina


25 milhões. Essa é a quantidade de iPads 1 e 2 que a Apple vendeu até junho de 2011. O “iPhonão”, como disseram alguns no lançamento da primeira versão, em referência à semelhança do produto ao iPhone, fez jus à maçã que carrega e entrou para a história.
Depois do computador pessoal e do telefone celular, Steve Jobs, ex-CEO e cofundador da Apple, revolucionou novamente, dando abertura para um segmento de mercado que há muito havia sido deixado de lado: os tablets.

Tablet = iPad

Enquanto o iPad 1 vendia 700 mil unidades apenas em seu primeiro final de semana, a concorrência fritava neurônios que, indecisos, ficavam entre apostar ou não no novo segmento de eletrônicos.
A resposta demorou a aparecer e, meses depois, Samsung, Motorola e algumas marcas chinesas resolveram se mexer. Já era tarde demais: o iPad dominou, nos primeiros meses de 2011, mais de 90% do mercado e virou sinônimo de tablet, assim como Coca-Cola é de refrigerante.
O Galaxy Tab, da Samsung, tinha duas câmeras e formato reduzido; o Motorola Xoom trazia um processador para lá de potente; e o chineses... Bom, os chineses custavam menos que os US$ 399 cobrados pelo modelo de iPad mais simples.

iOS, o responsável pelo sucesso

Apesar da visível diferença em termos de hardware e preço, o iPad permaneceu como sonho de consumo e garantiu muitos milhões nos cofres da Apple. Especialistas garantem: o sucesso do iPad não se deve única e exclusivamente à brilhante maçã estampada, mas a uma coisa muito mais complexa – porém não menos brilhante: o software.

Enquanto a concorrência, em sua grande maioria, confia no Android, o sistema operacional móvel da Google, o iPad conta com o iOS, o mesmo software que garantiu o sucesso pleno e contínuo do iPhone, anos antes. Com aparência e funcionamento suaves, o iOS é intuitivo o suficiente para conquistar diversos tipos de públicos, uma vez que não requer grandes aprendizados ou truques – diferente do Android.
A grande vantagem do sistema operacional móvel da Apple, entretanto, está em sua base de usuários e desenvolvedores: são mais de 500 mil aplicativos, entre gratuitos e pagos. Os fãs estão certos quando dizem o famoso bordão “tem um app para tudo”. Com tamanha quantidade de apps oferecidos, a variedade e a própria qualidade são meras consequências.
O questionamento que se faz à Motorola, empresa recentemente comprada pela gigante Google, Samsung e outras é: o que fazer com poder de processamento, design e câmeras se não há bons aplicativos para rodar? Apesar de sua câmera deficiente, mesmo no iPad 2, performance questionável e funções do iOS que precisam de melhorias, o tablet da Apple ainda é rei.

Fonte: Tecmundo

Claro se prepara para testar 4G ainda este ano







4G
A Claro anunciou nessa terça-feira (30/8) que fará testes em campo da tecnologia 4G, ou Long Term Evolution (LTE), ainda este ano. Segundo a empresa, os estudos devem acontecer antes do leilão de 2,5 GHz, cujas licenças serão usadas para o serviço no Brasil, previsto para acontecer em 2012.

Como parte dos preparativos para os testes, a empresa está instalando roteadores IP, da Alcatel-Lucent e Cisco, em sua rede de acesso 3G. Essa substituição começou em 2009 e, hoje, 73% das localidades 3G da operadora são dotadas de roteadores IP. A expectativa é alcançar 100% até o fim do ano. "Nos locais onde já migramos para roteadores IP, a média de tráfego de dados por usuário aumentou 40%", revela o diretor de plataformas e rede da Claro, Márcio Nunes.

Paralelo aos testes, a operadora também está trabalhando na atualização de sua rede de protocolo de telefonia móvel HSPA+, um passo anterior ao 4G e que pode ser feito sobre a infraestrutura 3G existente. A tecnologia HSPA+ permite alcançar velocidades de até 21 Mbps, enquanto que no LTE, essa velocidade subirá para algo próximo a 100 Mbps.

Microsoft quer acelerar a inicialização do Windows

A Microsoft deu entrada no registro de uma patente chamada “Fast Machine Booting Through Streaming Storage” (“Inicialização rápida da máquina através do armazenamento via streaming”, em uma tradução livre), a qual prevê a inicialização do Windows em menos tempo.

O documento veiculado pelo US Patent & Trademark Office, descoberto pelo site Electronista, explicita que o método seria útil para máquinas interligadas em rede, pois a técnica consiste na criação de um servidor com o sistema operacional que deve ficar sempre disponível.
Dessa forma, os outros computadores da rede podem realizar o streaming do SO transferindo um arquivo bem mais leve do que uma imagem completa do Windows – como acontece no processo convencional de inicialização.
“A tecnologia facilita a inicialização rápida porque o disco virtual está disponível para o uso imediato, em vez de precisar baixar uma imagem do sistema operacional inteiro antes de inicializar. Por exemplo, durante uma operação de boot, apenas uma quantidade relativamente pequena de dados é necessária a partir do disco de boot”, descreve o registro da patente.
A Microsoft não divulgou previsões para a utilização desse mecanismo em seus produtos. Clique aqui para acessar a patente registrada no US Patent & Trademark Office, o órgão que regulamenta a propriedade intelectual nos EUA.

Fonte: Baixaki

Novo sistema de boot da Microsoft promete mais velocidade ao inicializar dispositivos

Logo Windows
A Microsoft solicitou ao serviço de patentes norte-americano o registro de um novo sistema chamado “Fast Machine Booting Through Streaming Storage”. Ela contempla um serviço de armazenamento por meio de rede e local, chamado pela Microsoft de camadas. O conjunto serviria para melhorar o sistema de boot de computadores, tablets e outros dispositivos.
O projeto foi submetido para registro em fevereiro de 2010 e, por meio dele, seria possível fazer a “transmissão” do sistema operacional para praticamente qualquer dispositivo com uma tela. O SO funcionaria com computação em nuvens, compondo uma espécie de ambiente virtual que disponibilizaria os recursos ao usuário conforme fossem solicitados (ou necessários).
Além disso, uma série de dispositivos de armazenamento seriam utilizados (tanto local, quanto remotos) de forma a criar o “disco rígido virtual”. Com isso, as “camadas” contendo o sistema operacional estariam imediatamente disponíveis ao usuário, em vez de ser preciso carregar e salvar o SO como uma imagem antes de sua execução.
A Microsoft afirma que com esse sistema qualquer aparelho seria capaz de inicializar de forma muito mais rápida – quase instantânea, mais precisamente. Ainda de acordo com a empresa, praticamente qualquer dispositivo com acesso a rede seria capaz de utilizar o sistema (computadores pessoais, servidores, notebooks, tablets, sistemas baseados em multiprocessamento, mainframes, minicomputadores etc.).
Por ora, o projeto foi registrado e não houve uma declaração oficial de quando entrará em aplicação. No entanto, em uma versão mais recente do Windows 8, já foram vistas funções com características semelhantes às citadas no sistema.

Fonte: Baixaki

Uso do Windows XP fica abaixo de 50% pela primeira vez

 

E a campanha da Microsoft pela substituição do Windows XP pelo Windows 7 parece estar dando resultados. De acordo com uma nova pesquisa publicada pela empresa NetMarketShare, é a primeira vez que o uso do antigo sistema operacional da Microsoft cai para abaixo dos 50% de uso desde que a pesquisa passou a ser efetuada.
O sistema que já possui mais de 10 anos de vida terminou o mês de julho com 49,8% de participação no mercado de sistemas operacionais, com uma queda de 1,3% em relação a junho. Já o Windows 7 continua a crescer, passando de 27,1% para 27,9% no mesmo período. Vale ressaltar ainda que a empresa planeja remover o suporte ao XP em 2014.

Já no que se refere à briga das marcas, a Microsoft ainda tem pleno domínio sobre a Apple. O sistema operacional Windows, somando todas suas versões, domina mais de 85% do mercado, contra menos de 10% dos sistemas Mac.
A força da Apple, contudo, consiste nos seus sistemas mobile. Acessos a partir do iPhone e do iPad ainda estão muito acima dos números vistos para o sistema Android, que alcançou meros 0.8%.
Contudo, a Microsoft não espera que o Windows 7 chegue a ter o mesmo domínio de mercado do XP. Com planos para lançar a nova versão do SO (Windows 8) no final 2012, a empresa já parece pensar na frente, dando um maior suporte para os tablets.

Fonte: Baixaki

Microsoft diminui preço de jogos do Kinect no Brasil

Img_normal
Se você esperava uma boa oportunidade para aumentar sua biblioteca de jogos para o Kinect, a Microsoft acaba de anunciar uma redução de preços em dois títulos exclusivos para o sensor de movimentos do Xbox 360. De acordo com o site oficial da divisão nacional da empresa, os games Kinectimals e Kinect Joy Ride estão custando apenas R$ 99.
O novo valor passa a valer para os revendedores oficiais da Microsoft no Brasil e é possível encontrar sites vendendo os títulos já com os preços atualizados, como Saraiva e Wal-mart. No entanto, não há nenhuma menção da fabricante do console sobre uma possível redução no valor de outros games mais populares, como Dance Central e Kinect Sports, que continuam custando R$ 149.
 Fonte: Baixaki

O Windows XP completa 10 anos

Carregando o Windows XP
Mesmo após o lançamento de duas versões mais recentes, o Windows XP ainda possui uma grande fatia do mercado. Tudo começou há dez anos, quando Bill Gates e Jim Allchin assinaram na presença dos jornalistas a versão RTM Gold do sistema, que foi distribuída aos fabricantes (como a Dell e a HP) para a implementação nos novos computadores.
No entanto, esta não é a data de aniversário do lançamento nas lojas – que ocorreu apenas dois meses depois de a nova versão do sistema estar disponível.

Dificuldades

No entanto, o caminho de ascensão do sistema não foi tão simples. Houve grandes mudanças das versões anteriores para o Windows XP e a plataforma também sofreu com a alteração. Ela apresentou vários bugs e inúmeras falhas de segurança, exploradas por pessoas mal-intencionadas, além de contar com a versão do Internet Explorer 6 como navegador oficial (que nem é preciso citar como gerou transtornos aos usuários).
Área de trabalho e menu do SO
Além disso, há menos de um mês do seu lançamento, um grupo conhecido como “devils0wn” criou a primeira cópia pirata e a distribuiu. Mesmo com a chave de instalação obsoleta, essa versão ilegal foi instalada em vários computadores, o que representou certo prejuízo para a companhia de Bill Gates.
Outro incidente foi que, pouco antes do lançamento oficial do XP nas lojas, ocorreu o incidente de 11 de setembro. Por conta disso, a Microsoft optou pela sábia decisão de adiar as festas de lançamento global.

Depois da tempestade, a calmaria

Mesmo com todos os problemas, a empresa conseguiu contornar uma possível situação desfavorável com maestria. Em 2004, a Microsoft lançou o pacote de correções para o sistema, o “Service Pack 2” (SP2), que tomou conta dos reparos necessários em bugs e problemas, além de adicionar novas funções ao sistema.
Embora houvessem cópias piratas, as versões legais do sistema continuaram com um bom rendimento de vendas mundo afora, rendendo ao Windows XP o título de “sistema operacional mais popular”, alcançando o seu pico de vendas em janeiro de 2007 (com 76,1 % do público utilizando a versão do SO).
Mesmo com o lançamento do Vista, o Windows XP continuou na preferência dos usuários. O domínio do SO manteve-se firme, até o lançamento do Windows 7, em outubro de 2009, que, ao contrário do Vista, vem conquistando os usuários da antiga versão.
Desligando o sistema


 Fonte: Baixaki

Microsoft deixa escapar que Windows 8 vai ter uma App Store

Visando sanar algumas dúvidas a respeito do Windows 8, a gigante de Redmond apresentou no seu blog oficial, nesta quarta feira (17 de agosto), um artigo “inocente” falando sobre as várias equipes envolvidas no projeto do novo sistema operacional. Entre as 35 áreas listadas no documento, um nome chamou muito a atenção de toda a comunidade de entusiastas especuladores de plantão: “App Store”.
Há tempos que vazamentos e até vídeos da própria Microsoft alimentam rumores sobre uma possível loja de aplicativos incorporada à próxima versão do Windows, mas essa seria a primeira vez que o nome "App Store" aparece visível para o público em um site oficial da empresa.
Apesar de existir a informação no post “Introducing the Team” em seu blog oficial, a Microsoft não revelou nenhum detalhe ou esclarecimento sobre a (muito provável) loja de aplicativos para o Windows 8.

Valve quer Xbox LIVE aberta à integração com o Steam

Img_normal
Após tecer elogios à Sony por ter permitido a integração da PlayStation Network com o Steam para o lançamento de Portal 2, Gabe Newell volta sua atenção à Microsoft. O fundador da Valve afirmou que a empresa também quer integrar seu serviço ao do Microsoft para a chegada de Counter Strike: Global Offensive.
Segundo ele, a ideia é fazer com que a Microsoft se sinta confortável o bastante para permitir que a Valve faça o mesmo serviço feito na PlayStation Network. Newell também comentou sobre a dura política da empresa em relação à sua rede. “Há uma grande quantidade de conteúdo entregue aos usuários de The Orange Box que não está disponível no Xbox devido às restrições impostas pela LIVE”, contou.
O fundador da Valve pede então que a Microsoft relaxe as imposições de forma a obter os mesmos benefícios que os usuários de PlayStation 3 já possuem. “[Queremos] que a Microsoft veja que [a integração] é uma boa estratégia para deixar os consumidores felizes”, concluiu.As afirmações foram feitas em entrevista concedida ao site Eurogamer.
Fonte: Baixaki

Steve Ballmer: Bing irá superar o Google

O dito popular “quem espera sempre alcança” parece estar na ordem do dia do chefão da Microsoft. Durante uma apresentação em exposição sobre marketing de buscas na Califórnia, Estados Unidos, Steve Ballmer, diretor executivo da empresa, foi questionado sobre a possibilidade do Bing superar o Google. Otimista, alegou que mesmo levando um bom tempo, a Microsoft pode chegar ao topo da audiência em buscas na internet.



“Não existe uma boa resposta para essa pergunta. Se você diz sim, parece arrogante. Se diz não, parece contente com o segundo lugar”, argumentou ele, de acordo com o site TechRadar.
Ballmer, conta o site Seattle PI, disse que a empresa continuará melhorando a relevância de suas buscas e expandindo para outros países. As medidas parecem estar dando certo: desde seu lançamento, em junho do ano passado, o Bing passou de 8,4% do market share para 11,3 em janeiro de 2010.
Ballmer diz estar contente com os resultados obtidos com o Bing, e pontua que a única vantagem que o Google teve para ser o buscador norte-americano mais utilizado é que eles apareceram primeiro, frisa o site PC World. Atualmente, o Google detém cerca de 65% das buscas feitas nos Estados Unidos. Em associação com o Yahoo, o Bing deve chegar a 30% das buscas feitas.

Bing que fazer Google parecer estúpido

A Microsoft lançou uma campanha para promover o Bing. Na ação, pessoas pedem informações e recebem respostas sem sentido, dando a entender que outros mecanismos de busca (leia-se Google) não dão ao usuário a resposta que eles procuram.
No filme, uma mulher pergunta sobre uma estação de metrô, porém “Euston” (citada na ação), aparece em primeiro lugar nas buscas tanto no Google quanto no Bing.

Google perde mercado; Bing cresce

A liderança conquistada pelo gigante das buscas diminuiu em junho, segundo a comScore. O Yahoo e o Bing – da Microsoft – conquistaram uma pequena parcela de tráfego.
O Google fechou junho com uma fatia de mercado de 62,6%, um pouco menos que os 63,7% de maio. Já Yahoo e Bing passaram, respectivamente, de 18,3% para 18,9% e de 12,1 para 12,7%, entre maio e junho.


Os três serviços registraram crescimento quando os dados são comparados com o mesmo período do ano passado. O Bing lidera com aumento de 77% no período, enquanto o Google subiu 12,7%.
A Microsoft investe cada vez mais em seu serviço de buscas. Recentemente, a empresa comunicou a seus acionistas que estava preparada para perder “de 5% a 10% da receita operacional bruta por vários anos” para melhorar sua situação em buscas.
Conteúdo
Tanto Bing quanto Yahoo fornecem links extras, sem solicitação, dessa forma aumentam seus totais de cliques. Quando retiradas essas buscas, chamadas de contextuais, o Yahoo ganhou 10 pontos base de mercado e a Microsoft, 20 pontos base. (Um ponto base equivale a 0,01%).
A comScore anunciou que irá reformular, em agosto, o modo como os dados são computados, para excluir as buscas em contexto.

Bing, serviço de buscas da Microsoft, ultrapassou o Yahoo! nos Estados Unidos

Em agosto, o Bing teve 13,9% do total de pesquisas realizadas naquele país, enquanto o Yahoo! representou 13,1%, de acordo com uma pesquisa da Nielsen divulgada nesta terça-feira (14).
Enquanto os dois serviços ralaram pela segunda posição, o Google se manteve confortável na dianteira com 65% do volume de buscas. Já o Yahoo! perdeu a posição que tinha até julho, quando representava 14,6% na preferência norte-americana.

Na comparação anual, o Google não sofreu grandes alterações no share, enquanto o Yahoo! sofreu leve decréscimo, passando de 16% para os 13,1%. O Bing, por sua vez, cresceu de 10,7% em agosto de 2009 para os atuais 13,9%.
A Micrisoft fechou uma parceria com o Yahoo! em julho de 2009, quando passou a usar o motor de buscas da nova parceira a fim de melhorar o Bing. Em agosto deste ano as empresas anunciaram que a transição do serviço fora completada nos Estados Unidos e no Canadá – o que coincide com a ultrapassagem nos EUA. Mas a migração completa só ocorrerá em 2012.

Bing: será a principal ferramenta de pesquisa nos aparelhos BlackBerry

Steve Ballmer, CEO da Microsoft, fez um comunicado no começo dessa semana sobre a nova parceria da empresa com a Research in Motion. O acordo define que o buscador Bing será a principal ferramenta de pesquisa e indicação de mapas a ser utilizada nos próximos aparelhos BlackBerry.
A aliança foi divulgada durante o Blackberry World, evento anual da RIM. Durante a conferência Steve Ballmer declarou que vai investir na plataforma BlackBerry e que está animado com o que o futuro aguardaria para a Microsoft.

De acordo com matéria publicada na Wired, a Microsoft pretende marcar território no ambiente mobile. Neste ano também foi firmado outro acordo da empresa com a Nokia para que o Windows 7 seja o sistema operacional implantado em seus futuros smartphones.
Matt Dahlin, diretor da Bing, escreveu no blog oficial do buscador que o novo recurso estará presente nos aparelhos BlackBerry dos Estados Unidos e ao redor do mundo. Também afirmou que além dos smarphones, o Bing será parte integrante no Playbook, o tablet da BlackBerry.
O diretor da Bing ainda completa seu post dizendo que a experiência mobile está mudando: “Nos vamos ver uma conversão entre pesquisa, comércio, rede social e localização onde o Bing irá fornecer a inteligência e a camada organizacional na nuvem que vai dar ação a intenção dos usuários e ajudando as pessoas a ser mais produtivas”.
Depois da notícia veiculada pelo The Guardian que a Apple, 2o anos depois, conseguiu ultrapassar a Microsoft nos lucros, US$ 6 bilhões contra US$ 5.23 bilhões neste primeiro trimestre, e que o principal fator está na venda dos iPhones, a empresa fundada por Bill Gates tenta correr atrás para reverter o jogo.

Windows 8 eliminará avisos sobre arquivos enviados à lixeira

Quem está acostumado com os avisos de segurança presentes nos sistemas operacionais da Microsoft terá que redobrar os cuidados ao usar o Windows 8. De acordo com uma atualização publicada por Alex Simons em 23 de agosto no blog Building Windows 8, o novo software não avisará mais quando um item for enviado por acidente para a lixeira.

Apesar de tal opção já poder ser habilitada no Windows 7, como padrão todas as ações responsáveis por eliminar documentos resultam em um aviso de confirmação. Segundo o time de desenvolvedores da Microsoft, tal decisão tem como objetivo eliminar caixas de diálogo consideradas irritantes ou redundantes pela maioria dos usuários.
A novidade se une à lista de melhoramentos de interface divulgados pela companhia. Entre as mudanças esperadas no Windows 8 estão um sistema de gerenciamento de arquivos aprimorado, com o objetivo de facilitar a experiência do usuário e evitar distrações desnecessárias.

Suporte a arquivos ISO e VHD

Outra novidade presente na próxima versão do sistema operacional é o suporte nativo a arquivos do tipo ISO (cópias de discos) e VHD (discos rígidos virtuais). Agora não será mais preciso que os usuários utilizem softwares complementares para trabalhar com tais documentos, que podem ser administrados facilmente a partir do próprio Explorer.


As imagens ISO montadas funcionarão de forma semelhante a um disco qualquer colocado no drive de leitura, permitindo ao usuário instalar aplicativos ou visualizar a estrutura de pastas presentes no arquivo. Porém, não será possível adicionar qualquer tipo de documento, nem criar novos ISOs a partir das ferramentas padrões do sistema operacional.
O suporte aos arquivos VHD acontece de forma simular, e se dá de forma bastante semelhante ao que acontece quando uma unidade de disco externa é adicionada ao sistema. Entre as opções disponíveis está a adição, remoção e edição de arquivos, além da possibilidade de formatar completamente o disco virtual.

Fonte: Baixaki

segunda-feira, 29 de agosto de 2011

Microsoft revela novidades do Windows Explorer para Windows 8


Espera-se uma reformulação visual drástica na próxima geração do sistema operacional da Microsoft, que está sendo chamado de Windows 8. Já é possível perceber algumas das modificações que a empresa planeja pelas builds vazadas.
Hoje (29), Alex Simons publicou um artigo no blog Building Windows 8 explicitando mais detalhes do que iremos encontrar no Windows Explorer dotado com a interface Ribbon – a qual dará ao recurso do SO a mesma aparência dos aplicativos presentes no pacote do Microsoft Office.
De acordo com a publicação, a empresa resolveu adotar a interface Ribbon no Explorer pela ampla familiarização dos usuários com ela, devido a sua presença em programas muito difundidos – como o Word e o Excel. O objetivo principal da remodelagem do Windows Explorer é torná-lo mais funcional.

Para isso, foi feito um levantamento estatístico dos comandos mais realizados no Windows Explorer. As ações mais corriqueiras receberam botões na interface, permitindo que os usuários tenham mais praticidade ao usar esse recurso do sistema operacional. Confira a listagem dos dez comandos mais comuns no Explorer:
  • Colar: 19%

  • Copiar: 11%

  • Propriedades: 11%

  • Apagar: 10%

  • Renomear: 8%

  • Cortar: 7%

  • Pesquisar: 7%

  • Novo item: 6%

  • Abrir: 2%

  • Editar: 2%

Dessa forma, por exemplo, renomear um arquivo ou apagar um documento será ainda mais intuitivo. Os comandos serão organizados por abas de acordo com a sua finalidade. Conforme podemos observar nas imagens divulgadas, o Windows Explorer contará basicamente com as seções “Arquivo”, “Principal”, “Compartilhar” (permitindo que o usuário envie arquivos diretamente por email, imprima-os ou encaminhe-os por fax) e “Visualizar”.
Dependendo do tipo de arquivo selecionado, o Explorer poderá apresentar novas guias, como “Ferramentas de biblioteca”, “Ferramentas de imagens” e “Ferramentas de disco”. No Windows 8, o Windows Explorer deverá oferecer um espaço de visualização maior em suas janelas, devido aos menus minimalistas da interface Ribbon.

Fonte: Baixaki

Analistas preveem GTA V só na próxima geração

Img_normal
Sempre que a Rockstar anuncia um novo projeto ou a lista de games em um evento é divulgada, a mesma pergunta logo surge nos comentários: “Cadê GTA V?”. Eis que dois analistas de mercado conceituados decidiram dar a resposta aos fãs: na próxima geração.
A previsão foi feita por Michael Pachter e Asif Khan, que não acreditam que o novo capítulo de Grand Theft Auto chegue para PlayStation 3 e Xbox 360. Para eles, a série é famosa por seu impacto na indústria e que a desenvolvedora não vê como surpreender os fãs na atual geração. Desse modo, a Rockstar preferiria aguardar um novo sistema para retomar a franquia.
 Forte: Baixaki

China diz que irá endurecer combate aos hackers

Reuters. Reportagem de Ben Blanchard - A Suprema Corte e a promotoria da China reforçarão a luta contra os hackers ao adotar penalidades mais severas para as pessoas envolvidas nesse tipo de delito, informou a mídia estatal do país na segunda-feira.
Sob regras que vigorarão a partir de 1 de setembro, as pessoas que "deliberadamente comprarem, venderem ou encobrirem dados ou acesso a redes obtidos de forma ilegal estarão sujeitas a punição criminal", afirma um comunicado oficial do governo, de acordo com a agência oficial de notícias Xinhua.
"Atividades como essas estão se tornando cada vez mais comuns, e chegam a dar origem a grandes plataformas online para transações. Penalizar esse tipo de transação vai romper a cadeia de lucros dos crimes de computação", acrescenta o texto.
Embora os Estados Unidos afirmem que muitos ataques de hackers se originam da China, contra grupos chineses de direitos humanos e empresas norte-americanas, as autoridades chinesas alegam que o país é uma das maiores vítimas de ataques de hackers.
"Um crime que coloca em risco a segurança das redes de informação representa ameaça não só à segurança das redes mas à segurança nacional e ao interesse público", afirmou a agência de notícias, acrescentando que as novas regras tinham por objetivo reprimir esse tipo de crime de modo mais severo.
Em 2009, mais de 42 mil sites chineses sofreram "distorções" por ação de hackers, segundo a Xinhua.
Dados do Ministério de Segurança Pública demonstram que o número de vírus circulando na Internet aumentou em 80 por cento ante o ano anterior pelos últimos cinco anos, de acordo com a Xinhua. O ministério estima igualmente que oito em cada 10 computadores conectados à Internet são controlados por hackers.
Em seu relatório anual ao Congresso sobre as forças armadas chinesas, apresentado quarta-feira, o Pentágono alertou que ataques de hackers oriundos da China poderiam ser usados para fins militares clandestinos, e não para simples tentativas de acesso a dados.
Na semana passada, circulou um vídeo na Internet sobre uma reportagem da TV estatal chinesa quanto a ataques de hackers lançados pelos forças armadas do país, a despeito das constantes negativas da China quanto a esse tipo de atividade.

Fonte: Baixaki

Após acidente, Rússia adia missão espacial

Reuters. Por Timothy Heritage - A Rússia adiou nesta segunda-feira a próxima missão tripulada para a Estação Espacial Internacional em pelo menos um mês e uma autoridade disse que qualquer novo atraso poderá forçar o país a deixar a estação sem ninguém pela primeira vez em uma década.
A agência espacial russa, a Roskosmos, anunciou sua decisão para ganhar tempo para verificações das condições de segurança que começaram a ser feitas depois da queda de uma nave de carga não tripulada que levava mantimentos e combustível para a estação espacial, em 24 de agosto.
A espaçonave não conseguiu alcançar a órbita e pegou fogo na atmosfera, lançando destroços sobre a Sibéria, segundo as autoridades russas.
No breve comunicado desta segunda-feira, as autoridades não fixaram nova data para as missões, mas agências russas de notícias disseram que três dos seis tripulantes da estação vão retornar à Terra por volta de 16 de setembro em vez de 8 de setembro, e as substituições se darão no fim de outubro ou começo de novembro.
"Se por qualquer motivo não pudermos levar a tripulação antes do fim de novembro, vamos precisar reavaliar as possibilidades, incluindo a de deixar a estação sem ninguém", disse Alexei Krasnov, encarregado dos voos tripulados na Roskosmos, segundo informou a agência der notícias Interfax.
A Estação Espacial Internacional, um laboratório de pesquisa orbital que integra um projeto de 100 bilhões de dólares envolvendo seis países, está com tripulação continuamente há mais de uma década.
O próximo envio de uma equipe à estação será o primeiro desde que a agência espacial dos EUA, a Nasa, aposentou seu programa de ônibus em julho, após 30 anos de atividade.
Isto causou preocupação na Nasa, já que agora depende inteiramente das naves russas para o envio de pessoas ao espaço.

Fonte: Baixaki

Xbox 360 Slim é desbloqueado


Eis que os hackers conseguem mais uma vitória na triste luta das empresas contra a pirataria. O alvo da vez foi o modelo slim do Xbox 360, o único que ainda não havia sido desbloqueado. Em um vídeo publicado no YouTube pelo usuário Razkar2011, é possível ver uma falha do console da Microsoft sendo usada para rodar games do Nintendo 64.
Com isso, um tutorial sobre o novo desbloqueio logo caiu na rede, explicando o que deve ser feito para que os jogadores consigam burlar as proteções impostas pela fabricante. O curioso é que os discursos continuam os mesmos: não se trata de uma apologia à pirataria, apenas uma forma de permitir que o console rode aquilo que a empresa não permite — o que inclui ISOs ilegais.
Com o anúncio dos hackers, a comunidade gamer logo começou a expressar sua opinião sobre o desbloqueio do novo Xbox 360. Quem apóia o uso de jogos ilegais comemorou a notícia, embora tenha criticado o fato de o novo método exigir um chip para funcionar e o tempo excessivo que o console leva para iniciar. Por outro lado, os jogadores que são contra a pirataria acreditam que a nova dashboard do aparelho poderá dificultar a vida dos piratas.
 Fonte: Baixaki

Rússia aprova construção de túnel ligando Ásia à América


A Rússia aprovou no último dia 22 de agosto um projeto que parece saído da ficção: com custos aproximados de US$ 65 bilhões, o país deve iniciar a construção de um túnel de 106 quilômetros ligando a Sibéria à América do Norte, permitindo o transporte terrestre entre os dois continentes.
O projeto, que deve atravessar o Estreito de Bering, está planejado para quebrar o recorde de túnel mais longo do mundo, possuindo o dobro do tamanho daquele que liga a Inglaterra à França. Além de permitir o transporte de bens entre o continente asiático e a América, o projeto pode ajudar no desenvolvimento de um corredor de energia renovável a partir da instalação de dispositivos capazes de acumular a eletricidade produzida pelos ventos e pelas marés do percurso.
O túnel também deve servir para o transporte ferroviário, se tornando parte de uma rede de trilhos que se espalha por três quartos do hemisfério norte da Terra. Além disso, através da construção serão passadas linhas de transmissão e cabos de fibra ótica, aumentando a capacidade de comunicação entre os dois continentes.

Projeto para o futuro

Para que o projeto seja viabilizado, serão estabelecidas parcerias entre o setor público e empresas privadas interessadas no potencial econômico da ponte. Segundo o site Inhabit, a novidade deve garantir o transporte ferroviário de 100 milhões de toneladas de carga por ano.
Outro fator que surpreende é a capacidade de geração de energia do projeto. Somente com a energia das marés próximas seria possível produzir 10 gigawatts de eletricidade, valor que seria ainda maior com a produção de energia através dos ventos.
A expectativa é a de que o processo de construção do túnel demore aproximadamente 15 anos para ser finalizado. Essa seria somente a etapa inicial do projeto, já que levaria mais alguns anos para o fim do desenvolvimento das linhas de transmissão de dados e energia, sem contar com a instalação dos trilhos para o estabelecimento da ferrovia ligando os continentes.

Fonte: Baixaki

Microsoft completa migração do Hotmail para o Outlook.com

Em julho de 2012, a Microsoft lançava o Outlook.com, novo serviço de email gratuito com interface Metro e integração com redes sociais. Ho...