Shared posts

01 May 23:09

Neon Genesis Evangelion, 30 anos depois

by Ronaldo Gogoni

Neon Genesis Evangelion está completando 30 anos em 2025. Exibido originalmente entre 1995 e 1996 no Japão, a série surgiu como uma variação do gênero mecha (franquia Mobile Suite Gundam e similares), que acabou mudando as mídias anime e mangá, e influenciando diversos criadores de animação, quadrinhos, TV e cinema, em todo o mundo.

Os temas e personagens de Evangelion hoje são basicamente modelos e arquétipos, a produção do finado estúdio Gainax (suas obras hoje pertencem ao Studio Khara) permitiram a produtores serem mais ambiciosos em séries, mas também trouxe alguns pontos negativos, curiosamente similares aos problemas que a indústria norte-americana de HQs enfrentava na época.

Neon Genesis Evangelion é um dos animes e mangás mais influentes das últimas décadas (Crédito: Reprodução/Khara/Kadokawa Shoten/JBGroup/Editora JBC)

Neon Genesis Evangelion é um dos animes e mangás mais influentes das últimas décadas (Crédito: Reprodução/Khara/Kadokawa Shoten/JBGroup/Editora JBC)

O anime antes e depois de Neon Genesis Evangelion

Justiça seja feita, o mangá e o anime nunca foram mídias heterogêneas, criadas para apenas um público específico. Desde os primórdios existem obras infantis, para público jovem (garotos e garotas), adultos, de ficção histórica, etc. A Gainax era mais um de vários estúdios, fundado em 1984 por Hideaki Anno e Yoshiyuki Sadamoto, entre vários outros.

Entre suas obras pré-EVA, podemos citar filme Royal Space Force: The Wings of Honnêamise, os OVAs (direto para vídeo) Appleseed, Gunbuster, e o impagável meta-anime Otaku no Video, e sua primeira série para a TV, Nadia: the Secret of Blue Water, a qual muita gente JURA que a Disney copiou com Atlantis: O Reino Perdido, de forma similar às "coincidências" entre O Rei Leão e Kimba, o Leão Branco, de Osamu Tezuka.

A mídia anime estava em apuros na época, devido à crise econômica do Japão causada por uma bolha especulativa do fim dos anos 1980, que estourou em 1992 e fez o país estagnar. Com a grana curta, estúdios menores investiam em projetos de retorno rápido, como obras para crianças ou, no caso da Gainax, foco em OVAs voltados aos fãs mais hardcore, os otakus.

O bom retorno de Nadia, que rendeu posteriormente um filme, aliado a elogios da crítica, compeliram Anno e Sadamoto a investirem em uma nova série para a TV, mas com um escopo voltado para o público jovem de nicho ao invés do geral; Evangelion não é senão uma sátira, uma desconstrução do gênero mecha, consagrado pela marca Gundam, que atriairia audiência trabalhando com temas mais controversos.

E poucos causariam mais burburinho do que misturar robôs gigantes com a temática judaico-cristã, mas EVA não se resume a uma salada bíblica.

Shinji Ikari é o arquétipo do herói relutante (Crédito: Reprodução/Khara/Tatsunoko Production/TV Tokyo/Crunchyroll/Sony/Netflix)

Shinji Ikari é o arquétipo do herói relutante (Crédito: Reprodução/Khara/Tatsunoko Production/TV Tokyo/Crunchyroll/Sony/Netflix)

Um dos segredos por trás da força de Evangelion é o quão passional foram todos os envolvidos no projeto, principalmente Hideaki Anno, que dirigiu a série, e Yoshiyuki Sadamoto, que foi o designer da produção e ficou a cargo do mangá, lançado paralelamente. Mesmo sendo apoiado pela Tatsunoko (Speed Racer, Gatchaman), a Gainax manteve para si o controle criativo total da obra, o que lhes permitiu serem mais ambiciosos e ousados.

Temas como abandono e abuso psicológico não eram comuns na época, como o que Shinji, o protagonista, sofre nas mãos de Gendou Ikari, comandante da NERV. Uma das primeiras cutucadas em tropes da série Gundam mira na do "protagonista predestinado": como você acha que um garoto comum de 14 anos realmente reagiria ao receber uma ordem do pai, que ele não via há uma década, para entrar em um robô gigante, e enfrentar um monstro do qual ele havia se safado por pouco, momentos antes?

Muita gente critica Shinji como o personagem principal que não se impõe, não tem agência, que culpa todo mundo por seus problemas, mas ele é o herói relutante, e um reflexo da juventude japonesa da época, sujeita às imposições dos pais e da sociedade para um futuro conformista, e pré-determinado, o qual ele se recusa a aceitar.

O maior controle da Gainax sobre Evangelion influenciou autores a serem mais experimentais, e mostrou que projetos mais de nicho podem, sim, serem lucrativos. Makoto Shinkai (Your Name) costuma citar a obra como motivação para que ele fosse mais ambicioso e perfeccionista. Ao mesmo tempo, criadores puderam usar o anime como exemplo de que maior controle na mão deles ainda reverteria cifras volumosas a estúdios e distribuidoras.

Tecnicamente, Evangelion foi o primeiro exemplo de série de apenas 24 episódios que se tornou um blockbuster, mostrando que um mangá não precisa ser de longa duração para justificar uma versão animada quer se estenderá por anos a fio, como Dragon Ball Z. De fato, temporadas maias curtas hoje são a norma, e mesmo séries contínuas podem ter hiatos de meses ou anos, antes de serem retomadas.

Ao longo de 30 anos, Evangelion rendeu todo tipo de debates sobre religião, psicologia, e sociedade (Crédito: Reprodução/Khara/Tatsunoko Production/TV Tokyo/Crunchyroll/Sony/Netflix)

Ao longo de 30 anos, Evangelion rendeu todo tipo de debates sobre religião, psicologia, e sociedade (Crédito: Reprodução/Khara/Tatsunoko Production/TV Tokyo/Crunchyroll/Sony/Netflix)

Assim como Star Wars foi originalmente concebida por George Lucas como um drama familiar com uma guerra galática como pano de fundo, Neon Genesis Evangelion usa a ameaça dos anjos como desculpa para discorrer sobre temas que todo adolescente enfrenta, como rejeição, inadequação, dúvida, a necessidade de encontrar algo, ou alguém, em quem se apoiar, e outros ligados à saúde mental. O card do último episódio traz a mensagem "take care of yourself", escancarando a motivação real da obra.

Isso não se restringe ao Shinji, claro. Asuka Langley, o arquétipo da trope da tsundere, e Rei Ayanami, que age mais como uma figura materna (por razões que se tornam óbvias no decorrer da série), têm seus momentos de dúvida e também de afeição pelo protagonista, é uma série para jovens, afinal.

Segundo Hideaki Anno, o elenco principal foi desenvolvido tendo como base sua própria personalidade, ao terem dificuldades em lidar com problemas pessoais e internos, como o trio principal, ou com traumas do passado, como Misato Katsuragi e Ryoji Kaji.

Evangelion também movimentou o público a dar mais atenção às vozes e o trabalho de interpretação, e também ao interesse ocidental de apreciar animes com áudio original e legendas; o elenco japonês é hoje considerado estelar entre dubladores japoneses, com atores como Megumi Ogata (Shinji), Megumi Hayashibara (Rei), e Tomokazu Seki (Toji Suzuhara), entre outros; vale também mencionar que Misato conta com a voz de Kotono Mitsuishi, a eterna Usagi/Serena Tsukino, a.k.a. Sailor Moon.

Da mesma forma, o excelente trabalho de dublagem de Evangelion levou a adaptações buscando seguir o mesmo padrão de qualidade, e com o tempo, o prestígio do público por dubladores profissionais no ocidente também cresceu.

Influência e legado

Neon Genesis Evangelion inspirou autores de diversas formas, a mais óbvia levou a uma explosão do gênero mecha, e de animes com temáticas mais introspectivas. Há quem acuse o anime de tornar a mídia, e o mangá por tabela, "sérios demais", como uma forma de distanciamento dos criadores da pecha de "desenho/quadrinhos é para crianças", algo que também já estava acontecendo nos Estados Unidos.

Geralmente atribuído às várias Graphic Novels da época de Frank Miller (Batman: O Cavaleiro das Trevas, Ronin, Sin City) e Alan Moore (Watchmen, V de Vingança, Batman: A Piada Mortal), o movimento por uma maior seriedade em HQs e animações teve outras influências, como os trabalhos mais recentes de Ralph Bakshi (Fritz the Cat, Fire and Ice), e até mesmo de uma providencial mãozinha do Japão, com publicações localizadas como Lobo Solitário (que influenciou Miller), e longas animados como Akira e Ninja Scroll.

No ocidente, esse fenômeno em busca de histórias com temas mais adultos, focando muitas vezes em violência, sexualização, ou mudanças gratuitas em personagens estabelecidos (Wolverine tendo o adamantium removido de seus ossos, ou o Lanterna Verde Hal Jordan virando o vilão Parallax), se uniu a uma bolha especulativa que visava a impressão descontrolada de revistas, o que levou a uma quebradeira geral de editoras, culminando com a falência da Marvel Comics.

A diferença, o anime e o mangá eram mídias dividias em vários nichos desde muito antes, e embora o interesse por parte do público tenha se voltado por um tempo a obras com temas mais adultos, isso não impediu que outras cobrindo vários gêneros, em especial os shōnen (para garotos) e shōjo (para garotas) continuassem tendo boas vendas e audiência.

Claro, Evangelion rendeu muito dinheiro à Gainax, o anime original se desdobrou em diversas mídias derivadas, de spin-offs e continuações no cinema; à tetralogia Rebuild of Evangelion, que atualizou a narrativa e introduziu novos personagens, além de render uma infinidade de outros produtos, de games a merchandising.

O estúdio em si lançou várias outras obras de sucesso variável, como FLCL e Gurren Lagan, enquanto Hideaki Anno produziu releituras para a tela grande (um tanto controversas) de algumas das maiores franquias japonesas, com Shin Godzilla, Shin Ultraman, e Shin Kamen Rider.

Infelizmente, anos de má-gestão levaram à falência da Gainax em 2024, e hoje suas obras são controladas pelo Studio Khara, fundado originalmente em 2006 por Hideaki Anno, para produzir separadamente os filmes de Rebuild of Evangelion.

Neon Genesis Evangelion não é uma obra perfeita, hoje é vista como um anime cheio de clichês (na época era tudo novidade), mas não dá para negar que ela é uma das obras mais influentes do Japão das últimas décadas. Algumas referências, como RahXephon e Martian Successor Nadesico são óbvias, enquanto outras são mais sutis, como as homenagens em obras norte-americanas como Rick and Morty, Gravity Falls, Steven Universo, Regular Show, My Little Pony: Friendship is Magic, e o filme Kong: A Ilha da Caveira.

Fora do anime, Evangelion serviu como um dos principais catalizadores que permitiram ao anime e o mangá, e culturas e costumes conectados, como o cosplay, saírem do nicho e se tornarem mídias de massa populares no mundo todo. Muito provavelmente você não estaria lendo este texto, ou qualquer outro do Meio Bit voltado à mídia japonesa, se não fosse por Shinji, Rei, Asuka e cia.

E claro, por Hideaki Anno.

Para saber mais:

  • A série original Neon Genesis Evangelion, e os especiais Death & Rebirth e The End of Evangelion, estão disponíveis na Netflix;
  • A tetralogia Rebuid of Evangelion está disponível no Amazon Prime Video;
  • A versão Collector's Edition do mangá de Neon Genesis Evangelion foi publicada no Brasil pela Editora JBC, em 7 volumes.

Neon Genesis Evangelion, 30 anos depois

15 Apr 02:27

Intel Lunar Lake On Linux Can Roughly Match Windows 11 Xe2 Graphics - When Not Stuck At 400MHz

by Michael Larabel
Earlier this month I looked at the AMD RDNA 3.5 graphics with Strix Point between Windows 11 and Ubuntu 25.04 Linux. The testing showed the AMD RDNA 3.5 graphics on the open-source Linux driver up to around 96% the performance of Radeon Software on Windows. The most frequent question that came up from that most recent round of benchmarking was wondering how the Intel Xe2 graphics on Core Ultra Series 2 "Lunar Lake" now compares between Windows 11 and Linux given that both drivers have been maturing the past several months. Here's the story of the Xe2 graphics between Windows 11 and Ubuntu 25.04 while using a Lenovo ThinkPad X1 Carbon Gen 13 Aura Edition laptop.
26 Mar 21:16

Google makes Android development private, will continue open source releases

by Ryan Whitwam

Google is planning a major change to the way it develops new versions of the Android operating system. Since the beginning, large swaths of the software have been developed in public-facing channels, but that will no longer be the case. This does not mean Android is shedding its open source roots, but the process won't be as transparent.

Google has confirmed to Android Authority that all Android development work going forward will take place in Google's internal branch. This is a shift from the way Google has worked on Android in the past, which featured frequent updates to the public AOSP branch. Anyone can access AOSP, but the internal branches are only available to Google and companies with a Google Mobile Services (GMS) license, like Samsung, Motorola, and others.

According to the company, it is making this change to simplify things, building on a recent change to trunk-based development. As Google works on both public and private branches of Android, the two fall out of sync with respect to features and API support. This forces Google to tediously merge the branches for every release. By focusing on the internal branch, Google claims it can streamline releases and make life easier for everyone.

Read full article

Comments

20 Sep 16:24

Hollywood foi superada: pagers explosivos de Israel

by Carlos Cardoso

Hoje Hollywood foi humilhada. Em uma operação mirabolante que colocaria no chinelo qualquer Missão Impossível, Israel (sejamos honestos, foi Israel) atacou simultaneamente milhares de membros do Hezbollah, a organização terrorista que controla o Líbano.

Boom! (Crédito: Flux)

O ataque foi sincronizado, detonando os pagers que os terroristas usavam para se comunicar.

Mas Cardoso, por que pagers?

Eu explico, pequeno gafanhoto.

Israel é muito bom em guerra eletrônica, já usaram celulares para guiar mísseis, e interceptam tudo que é comunicação em redes públicas feitas pelo povo do Hezbollah, Hamas, etc. Como não é muito inteligente dar ao inimigo sua localização de bandeja, o Hezbollah teve a brilhante idéia de mandar seus homens pararem de usar celular, trocando o equipamento por pagers.

Ao contrário do celular, o pager é 100% passivo (ui!) e não transmite nada (existe pager que envia mensagens, mas não vamos complicar). Uma mensagem de pager se resume a uma ID do aparelho e uma mensagem curta de texto, a transmissão usa um protocolo chamado FLEX, patenteado pela Motorola.

Um pager vintage da Motorola (Crédito: Wikimedia Commons)

Transmitido na faixa de 900MHz e com potência de 1kw, os sinais de pager costumam chegar em lugares onde o sinal de celular não alcança, como áreas subterrâneas, interior de prédios etc. Por isso eles foram muito populares entre profissionais de saúde, era garantia de que seriam localizados.

Uma mensagem do Chefão do Hezbollah para um agente com a mensagem “me liga” não tem como ser rastreada por Israel, pois a mensagem é enviada de uma central da operadora de pager. Mesmo que a operadora esteja comprometida, não há como saber onde o agente está, ou se ele respondeu a mensagem.

Pagers Explosivos?

A internet está em polvorosa especulando sobre como Israel teria explodido os pagers. Tem gente dizendo que “hackearam” os pagers para provocar um superaquecimento da bateria, mas isso é basicamente impossível.

O que seria um dos pagers detonados (Crédito: reprodução internet)

Pagers não são inteligentes o bastante para serem hackeados. Não há update de firmware OTA (over the air), o protocolo é simples demais para isso.

Os vídeos também não corroboram a hipótese de aquecimento de bateria. É claramente uma explosão, e uma bateria Li-Ion superaquecida pega fogo, mas não explode.

Os pagers explodindo simultaneamente também não favorecem a ideia. Baterias em estágios diferentes de carga se comportariam de forma variada, as detonações foram muito precisas.

Há gente dizendo que Israel injetou Pentaerythritol Tetranitrate (PETN), um explosivo poderoso nas baterias, e provocou um aquecimento que detonou a carga, mas a temperatura de detonação do PETN é de 4.230 °C, e uma bateria aquecida não chega nem perto disso.

Também há pouco espaço em uma bateria para algo ser “injetado”. E o pequeno detalhe que o modelo utilizado pelo Hezbollah usa pilha-palito, não baterias de Lítio.

Relatos falam de que alguns pagers foram examinados e continham entre 10g e 20g de explosivos, o que condiz com os vídeos.

Cenário Possível

Aparentemente Israel invadiu a cadeia de produção dos pagers, depois de descobrir que o Hezbollah havia encomendado um lote bem grande do AP-900, da Gold-Apollo, de Taiwan.

Em algum momento esse lote de pagers foi alterado, recebeu a carga explosiva e foi devolvido ao estoque. Isso por si só já é um feito de espionagem que coloca no chinelo a maioria dos filmes, mas há um problema: Como detonar os pagers?

Em teoria seria possível criar um receptor de rádio para isso, mas exigiria um transmissor potente nas várias regiões do Líbano onde o Hezbollah opera, e ocuparia muito espaço. Minha hipótese é que Israel, fazendo jus às piadas, decidiu economizar e usar o hardware do próprio pager.

Protocolo Promíscuo

Um pager não recebe só as mensagens destinadas a si mesmo. O protocolo (FLEX, POCSAG etc) diz que o hardware irá receber todas as mensagens, identificar o destinatário e só gravar as destinadas àquele pager, mas lá nos Anos 90 a gente já modificada nossos pagers para receber TODAS as mensagens da rede.

Microcontrolador programável HT66F002 (Crédito: Reprodução Internet)

Um simples microcontrolador de alguns centavos, como o HT66F002 pode ser programado para monitorar os sinais que o pager recebe continuamente, identificar uma seqüência de texto específica “0-0-0-destruct-0”, “say goodnight, Gracie”, ou qualquer outra frase que você sabe que não será enviada aleatoriamente por alguém, e quando identificada a frase, enviar um sinal para o detonador ligado ao explosivo.

Um microcontrolador desses consome energia em quantidade desprezível, e seu tamanho é mínimo. Nenhum usuário perceberia algo diferente no pager.

Como segurança, Israel poderia até ter atrelado a detonação à mensagem E ao ID de um pager específico. Assim para que todos explodissem, a mensagem com o texto XXX seria enviada para o pager YYY, uma segunda camada de proteção contra detonações acidentais.

Esse cenário é 100% hipotético, mas explica como seria possível detonar os pagers.

Compensou o investimento, uma operação mirabolante para matar oito ou nove candangos? Matemática e financeiramente, não, mas psicologicamente foi um 11 de setembro para o Hezbollah, Israel demonstrou que eles não estão seguros, em lugar nenhum, nem com seus pagers.

Todo equipamento eletrônico do Hezbollah agora será vistoriado minuciosamente, o que causará transtornos, atrasos e problemas logísticos. Provavelmente voltarão a usar celulares, já que é tudo arriscado do mesmo jeito.

Quando os detalhes irão emergir? Talvez nunca, mas uma certeza é que veremos essa ideia ser usada em séries e filmes, e alguém irá reclamar dizendo que é mentira de Hollywood. E estará certo, pois como bem disse Tom Clancy, a ficção precisa fazer sentido, a realidade, não.

Hollywood foi superada: pagers explosivos de Israel

24 Aug 03:08

Valve, Steam e um modesto quadro de funcionários

by Dori Prata

Fundada em 24 de agosto de 1996, a Valve saiu de uma simples — mas muito respeitada — desenvolvedora de jogos para um dos principais nomes da indústria. Porém, isso não aconteceu por a empresa ter investido no desenvolvimento de algum console bem-sucedido ou pela criação de alguma engine revolucionária (com todo respeito à Source). O que levou a companhia de Gabe Newell e Mike Harrington ao topo do mundo foi a aposta na distribuição digital, mais precisamente na criação de uma loja chamada Steam.

Steam - Valve

Crédito: Reprodução/Dori Prata

Aquele serviço de distribuição se tornou o líder do setor, a ponto de uma empresa como a Epic Games investir pesado e adotar estratégias ousadas para conquistar um pouco desse espaço. Mesmo assim, o Steam segue respondendo como uma fantástica máquina de fazer dinheiro, mas o que poucos sabiam é que a manter funcionando exige um número praticamente irrisório de pessoas.

Muito cuidadosa em revelar detalhes da sua estrutura, os bastidores do Steam (e da valve) ganharam as manchetes recente graças a uma disputa nos tribunais iniciada pela Wolfire Games. Insatisfeitos pela cobrança de 30% de cada venda, os criadores do Humble Bundle alegam que “a Valve abusa do seu poder de mercado para garantir que as editoras não tenham escolha, além de vender a maioria dos seus jogos no Steam.”

Como costuma acontecer nessas situações, algumas informações das empresas envolvidas no processo acabam aparecendo na internet e no caso da Valve, uma que chamou a atenção foi a quantidade de funcionários que a companhia possui em cada setor.

Crédito: Reprodução/Tim Eulitz/Wikimedia Commons

Com os números abrangendo de 2003, ano em que o Steam passou a operar, até 2021, se olharmos para o último relatório do quadro de funcionários, chegamos a um total de apenas 336 pessoas. E para o entendermos melhor, vale colocar esse número em perspectiva.

Segundo uma estimativa feita pela Microsoft em 2021, naquele ano a Valve tinha registrado uma receita de cerca de US$ 6,5 bilhões. O montante seria igual ao da Electronic Arts e próximo dos US$ 8,1 bilhões de outra gigante, a Activision Blizzard. Mas sabe qual a diferença fundamental entre a companhia de Gabe Newell e a outras duas? Enquanto a EA contava com 11 mil funcionários, a casa do World of Wracraft e do Call of Duty ficava pouco abaixo dos 10 mil.

Um nível de eficiência assim seria suficiente para impressionar qualquer pessoa, mas é ao nos debruçarmos sobre como tais funcionários estão divididos é que conseguimos entender melhor porque a Valve olha com tanto carinho para o Steam.

Segundo os documentos, o ano em que o serviço de distribuição digital contou com a maior equipe foi em 2015, quando 142 pessoas estiveram dedicadas a mantê-lo. Já em 2021, esse quadro encolheu consideravelmente, caindo para apenas 79 profissionais. O detalhe interessante é que nesse mesmo ano, mais de 10 mil jogos foram lançados no Steam.

Mas qual seria a área da Valve que mais possui funcionários? Pois é aí que a coisa se torna mais interessante. Mesmo longe de lançar jogos num ritmo que seus fãs considerariam aceitável, é justamente neste setor que a empresa mais empregava, 181 profissionais. A explicação estaria na manutenção dos títulos que a empresa mantém e que lucram na base das microtransações, como Team Fortress 2, Dota 2 e Counter-Strike 2.

É importante considerar que tais números só vão até 2021 e até mesmo pelo lançamento do Steam Deck, é possível que hoje esse quadro de funcionários seja maior. Contudo, ao notarmos que o ápice de empregados aconteceu em 2016, quando a equipe era formada por apenas 371 pessoas, fica difícil imaginar que hoje eles estejam muito além disso.

De qualquer forma, levando em conta os dados revelados para 2021, é interessante notar como foi feita a divisão de pagamentos para cada setor da empresa. Repare como o custo da área de games ficou apenas um pouco superior à administrativa, mesmo com ela contando com quase seis vezes mais funcionários.

Logo, por mais que a Valve possa ver vista como um exemplo de como gerar uma quantidade absurda de faturamento, mesmo com tão poucas pessoas empregadas ela segue os passos de qualquer companhia, pagando muito para os seus líderes e não tanto para o “chão de fábrica”, o que sinceramente, não chega a ser uma surpresa.

Já rem relação ao rendimento, bom... Em 2021 a receita do Steam ficou na casa de US$ 2 bilhões, valor mais alto registrado no relatório e mais de US$ 500 milhões em relação ao ano anterior. A quantia até responde como menos de um terço da receita da Valve naquele ano, mas precisamos considerar que, tirando os jogos vendidos pela própria empresa, esse montante veio apenas da porcentagem que fica com o Steam após cada venda.

Esses números servem para entendermos um pouco melhor o funcionamento da Valve. Com tão poucos funcionários, não espanta as parcerias que eles costumam fazer para produzir seus hardwares, muito menos o suposto baixo investimento feito para melhorar o Steam. Essa é uma das críticas feita pela Wolfire em sua ação, já que a empresa de Newell teria um faturamento na casa de US$ 15 milhões por funcionário.

Crédito: Reprodução/Valve

Mas estejam eles certos ou não, essa pequena quantidade de profissionais ajuda a explicar a existência de uma estrutura plana no comando da empresa, o que significa que não há gerentes e que qualquer pessoa está livre para dirigi-la. Talvez, na prática, o funcionamento nem seja assim tão liberal, mas em 2012 o vazamento de um guia (aqui em português) para novos funcionários serviu para termos uma ideia de como seria trabalhar por lá.

Nele temos diversas informações sobre a empresa, como o fato de ela não contar com capital externo, ser dona das marcas que produz e se considerar mais do que uma companhia de games. O manual também traz uma linha do tempo e várias ilustrações bem humoradas, como uma ensinando a maneira correta de mover a mesa de trabalho, o que fazer quando sair de férias ou, é claro, como trabalhar sem ter um chefe.

De fato, essa não é uma empresa comum.

Fonte: GamesIndustry

Valve, Steam e um modesto quadro de funcionários

21 May 01:55

Intel Announces Q3'2024 Arrival For Lunar Lake

by Michael Larabel
Intel previously indicated that Lunar Lake processors would launch by the end of 2024 and leading to anticipation of a Q4 launch... Intel today announced that Lunar Lake will actually launch in Q3...
15 May 22:06

Elementary Physics Paths

==COSMOLOGY==> 'Uhhh ... how sure are we that everything is made of these?'
13 Mar 14:16

Mesa 24.1 Enables Intel Xe Kernel Driver Support By Default

While the new Intel Xe kernel graphics driver was upstreamed in Linux 6.8 as this modern DRM driver that is opt-in for current generation hardware and aims to be the default for Lunar Lake / Xe2, currently with Mesa you must build the Intel ANV Vulkan and Iris Gallium3D driver code with the "intel-xe-kmd" option to enable compatibility for this alternative kernel driver to i915. With Mesa 24.1 coming next quarter, that Intel Xe kernel driver support will be enabled out-of-the-box...
22 Dec 17:10

Trying Out & Benchmarking The New Experimental Intel Xe Linux Graphics Driver

One of the new features to look forward to with the upcoming Linux 6.8 kernel cycle is the merging of the experimental "Xe" Intel kernel graphics driver. This driver has been in development for quite a while but has reached the state now at which Intel is comfortable with developing it further while in the mainline kernel tree.
20 Dec 18:11

Intel Meteor Lake Arc Graphics: A Fantastic Upgrade, Battles AMD RDNA3 Integrated Graphics

Yesterday I posted the first Intel Meteor Lake Linux benchmarks that were focused on the CPU capabilities with the Intel Core Ultra 7 155H on Ubuntu Linux compared to the existing AMD Ryzen 7 7840U. The strictly CPU core performance ended up being rather disappointing with the AMD Zen 4 laptop dominating in most cases at similar or better power efficiency. But where things become much more interesting -- and competitive -- with Meteor Lake is on the integrated graphics side now featuring Arc Graphics. The benchmarks today is our first look at the new Meteor Lake Arc Graphics with the Core 7 Ultra 155H while comparing it to the RDNA3 integrated graphics found with the AMD Ryzen 7 7840U as well as the prior generation Intel integrated graphics.
16 Dec 19:37

Intel Xeon Platinum 8592+ "Emerald Rapids" Linux Benchmarks

Following the 5th Gen Xeon Scalable "Emerald Rapids" overview, you are likely wondering about the performance claims made by Intel and how they shake up in independent testing as well as how Emerald Rapids competes against AMD EPYC Genoa(X) and Bergamo. If so this article is for you with the Phoronix benchmarks of the new flagship Intel Xeon Platinum 8592+ 64-core processors being tested in both single and dual socket modes.
16 Dec 18:59

Intel's New "Xe" Kernel Graphics Driver Submitted Ahead Of Linux 6.8

As I wrote about last week that Intel's modern Xe kernel graphics driver was nearing submission for the mainline kernel and today it's indeed been submitted to DRM-Next. The Intel Xe kernel graphics driver is the modern alternative to the long-used i915 DRM kernel driver and is fitted to support Tigerlake graphics and newer -- both integrated graphics hardware as well as discrete GPUs/accelerators...
10 Dec 23:04

Inteligência Artificial – Retrospectiva 2023

by Carlos Cardoso

Inteligência Artificial foi o termo da moda em 2023, e ninguém pode dizer que foi sem motivo. Tivemos inúmeros avanços em pesquisas, produtos e na popularização de ferramentas, tanto para o público leigo, quanto para desenvolvedores e fuçadores.

A Inteligência Artificial, segundo os desafetos (Crédito: Stable Diffusion)

Neste artigo vamos fazer um apanhado dos avanços e ferramentas, com muitos links para fuçadores. Lembrando que seus amigos irão repassar vídeos com versões mais ou menos dessas ferramentas nos próximos meses, quando saírem as versões mais ou menos consumer

1 – Whisper pra todo mundo

Em 30 de março publiquei um artigo ensinando a instalar o Whisper, uma ferramenta de Inteligência Artificial especializada em transcrever áudios. Ela é capaz de gerar transcrições em texto corrido ou em formato de legendas, prontas para incorporação em vídeos. Pois bem; março é passado distante.

Em maio saiu o Whisper Faster, bem mais rápido e robusto. Um avanço e tanto, tornado obsoleto com o Insanely Fast Whisper, uma versão que consegue transcrever 2,5 horas de áudio em... 98 segundos. E agora com ferramenta de diarização, que basicamente é transcrever o texto separando as falas por participante.

Pense em uma audiência, uma reunião, automaticamente transcrita e identificada.

2 – TTS

O reverso do Whisper, sintetização de fala, sempre foi um problema, é complicado bagarai transcrever emoção, e a maioria das opções Open Source, como o Bark, são, francamente, ruins. Nessa área a solução corporativa está anos-luz adiante das alternativas. A Eleven Labs vale cada centavo que cobra para o uso de seus modelos. Quem produz vídeos profissionalmente e tem voz feia, precisa usar a Eleven Labs.

Até que a Coqui.ai lançou a versão nova de seus modelos de inteligência artificial para sintetização de fala, o TTS, e eles estão excelentes. Não só dá parar criar vozes do zero, como é possível clonar uma voz existente, incluindo a prosódia, com uma amostra de menos de dez segundos.

Este vídeo acima  usou uma amostra da voz da Sandy e a extensão SadTalker para animar uma foto e colocar a irmã mais famosa do Júnior explicando física quântica.

 

3 – Nós temos ChatGPT em casa!

É incrível ver como a tecnologia evoluiu ao longo dos anos! Antes, conversar com um computador era considerado ficção científica, mas hoje é uma realidade. A possibilidade de rodar um LLM em um computador doméstico é resultado da grande progressão técnica e cognitiva que ocorreu nos últimos anos.

As conseqüências disso para o futuro da humanidade são bastante amplas e interessantes. Em primeiro lugar, a tecnologia de LLMs pode ajudar a resolver problemas complexos e melhorar a eficiência em diversas áreas, como saúde, finanças, educação e muitas outras. Além disso, o aumento da capacidade de processamento de linguagem natural pode levar a avanços significativos em áreas como inteligência artificial, machine learning e robótica.

No entanto, também é importante considerar as preocupações éticas e sociais que surgem com o desenvolvimento dessa tecnologia. Por exemplo, a perda de empregos para trabalhos de processamento de linguagem natural pode afetar negativamente certas comunidades. Além disso, a possibilidade de usar essas tecnologias para fins maliciosos, como enganos ou fraudes, é uma preocupação importante que precisa ser abordada.

Em resumo, o desenvolvimento da tecnologia de LLMs é um marco importante na história da humanidade e pode trazer muitas bençãos, mas também é importante considerar as preocupações éticas e sociais para garantir que esses avanços sejam usados de forma responsável e benevolente.

Se você acha que eu vou dizer que o texto acima foi feito pelo ChatGPT, achou errado, mané. Ele foi escrito pelo Llama2, um modelo de Inteligência Artificial conversacional com 13 bilhões de parâmetros, rodando localmente no meu PC. Para isso usei o Text Generation WebUI, uma aplicação que controla o funcionamento dos modelos, e tem recursos avançados como envio de arquivos.

Dependendo do modelo usado você pode alimentá-lo com PDFs e conversar naturalmente, mencionando e questionando sobre os novos dados.

O Llama2 é só um de uma infinidade de modelos disponibilizados pela comunidade. Muitos deles sem censura, dá pra fazer todo tipo de pergunta que deixa o ChatGPT encabulado.

A grande revolução foi a quantização de modelos, uma técnica que reduz a precisão numérica dos valores usados. Basicamente ao invés de um número com 32 bits de precisão, o valor é reduzido para 16 bits, um inteiro de 8 bits ou até 4 bits. Claro que isso torna o modelo menos preciso e eficiente, mas executável em máquinas comuns, sem necessitar de datacentres inteiros.

Llama2 rodando localmente (Crédito: MeioBit)

O Papa da quantização no momento é um sujeito chamado The Bloke, ele criou um worklow onde recebe sugestões de modelos, processa e disponibiliza diversas versões, para todos os gostos de capacidades de memória.

No meu sistema eu rodo modelos com 7 e 13 bilhões de parâmetros, com facilidade. Não são nenhum HAL9000 mas já dá pra brincar. Claro, Um modelo com 13 bilhões de parâmetros tem uma maior capacidade de processamento do que um modelo de 7 bilhões porque pode armazenar mais informação e identificar padrões mais complexos nas linguagens naturais. Isso significa que o primeiro modelo terá mais possibilidades de entender textos longos, encontrar conexões entre palavras ou frases e fornecer respostas mais precisas a perguntas comuns.

Sim, a parte em itálico foi escrita por um modelo de 13 bilhões de parâmetros. Em português.

Reza a lenda que alguns modelos com 34 bilhões de parâmetros alcançam o mesmo nível de Inteligência Artificial que o ChatGPT 3.5, mas aí é pra gente com pelo menos uma RTX 4090.

4 – A Era dos Modelos Multimodais

A maioria dos Large Language Models (LLMs) só aceita texto, mas alguns pesquisadores ampliaram isso. Surgiram vários modelos capazes de entender não só texto digitado, como áudio e até imagens. O LLaVA (Large Language and Vision Assistant) é o mais popular.

A configuração é surpreendentemente simples pra quem é confortável fuçando com python. O framework usado é o Llama.cpp, e os modelos estão disponíveis no repositório oficial do LlaVA.

O que dá para fazer com ele? Bem, é possível conversas como esta. Note que ele identificou uma capa de revista, acertou o nome e quando eu pedi a modelo da capa (imagem escolhida aleatoriamente, claro) a Inteligência Artificial deduziu que o nome em destaque deveria ser o nome da tal moça.

As possibilidades dessa tecnologia são quase infinitas.

Lembre-se, esse é um modelo simples, de 7 bilhões de parâmetros, rodando localmente numa GPU media (RTX 3060). Já é o suficiente para legendar de forma extensiva todas as minhas fotos, incluindo tags. Posso escrever um sistema de monitoramento que toque um alarme cada vez que alguém com camisa <daquele time> pare no meu portão.

5 – Stable Diffusion XL

O Stable Diffusion original foi lançado em agosto de 2022, e já foi um furor, até então o máximo da geração de imagens via IA era o DALL-E Mini, que era promissor, mas muito, muito incipiente ainda. O Stable Diffusion trouxe uma flexibilidade nunca vista.

Quase um ano depois, no final de julho de 2023, saiu o Stable Diffusion XL, com capacidades muito maiores, modelo treinado em 1024x1024, ao invés do 512x512 do Stable Diffusion comum, e uma qualidade final impressionante, veja a comparação:

Esquerda SD 1.5, direita, SD XL (Crédito: Stable Diffusion)

A forma mais simples de rodar o Stable Diffusion XL é com o Fooocus, que vem com um instalador stand alone.

6 – GUIs GUIs e mais GUIs

Originalmente o Stable Diffusion era um script em python, você preenchia alguns dados num arquivo JSON, rodava a inferência e catava o resultado em uma pasta. Surgiram rapidamente interfaces para facilitar o uso. As mais famosas são:

  • AUTOMATIC1111 – Criada por um sujeito meio controverso, é uma interface excelente, mas demora muito para ser atualizada, às vezes até um mês. Muita gente a mantém instalada por ter uma base enorme de extensões.
  • SD.NEXT – Criada como um fork da Automatic, a SD.NEXT é muito mais atualizada, trazendo novidades primeiro.
  • INVOKE.AI – É a melhor interface para inpainting e outpainting, mas não tem tantas extensões quanto a AUTO.
  • STABLESWARMUI – Em teoria é a interface oficial.
  • EASYDIFFUSION – É uma interface mais simples, boa para quem não tem muitos recursos computacionais e não que se assustar com algo mais complexo.
  • FOOOCUS – É uma interface bem simples, com muitos recursos escondidos nas opções avançadas. É focada (dsclp) no Stable Diffusion XL, e otimizada para GPUs fraquinhas, ele rodava mesmo na minha GeForce 1050ti com 4GB de VRAM. É a instalação mais fácil de todas.
  • COMFYUI – É a interface mais poderosa, e você desenvolverá uma relação de amor e ódio. Comfy é baseada em nós, uma estrutura familiar pro povo do Blender e do After Effects, mas completamente alienígena para pessoas normais.

Por outro lado, Comfy é extremamente rápido e tem o menor consumo de memória entre as GUIs para Stable Diffusion.

7 – LCM

O Latent consistency model (LCM) foi uma inovação no Stable Diffusion. Com ele é possível gerar imagens muito rapidamente. Uma imagem comum precisa de uns 20 passos iterativos até se tornar coerente. Com LCM conseguimos isso em 4 ou 5.

Surgiram demos onde uma tela de desenho era acoplada ao Stable Diffusion, você rascunhava e ele criava a imagem com base no que você desenhou. Em tempo real.

Em dois dias apareceu uma integração: Um plugin incorporou o Stable Diffusion ao Krita, um excelente programa de ilustração Open Source. Veja o bicho em ação:

8 – LCM é tão semana passada... SDXL Turbo

Anunciado literalmente ontem, o SDXL Turbo é uma mega-otimização do Stable Diffusion XL, ele consegue gerar imagens coerentes com uma única iteração. Em frações de segundo você tem uma imagem.

Em tempo recorde, o povo do ComfyUI criou uma implementação, que funciona maravilhosamente bem, mesmo em GPUs com 6GB de VRAM. Instalei, e aqui um exemplo em tempo real do SDXL Turbo:

Óbvio que a qualidade final não é a mesma do Stabel Diffusion rodando repleto de LORAs, Control Nets e outras firulas, mas não é essa a proposta. O que temos aqui é um bloco de rascunho, onde podemos testar idéias, composições, formatos, e depois que estivermos satisfeitos com o prompt, aí sim rodar no workflow mais pesado

9 – Stable Diffusion Video

Uma semana antes do SDXL, a Stability AI anunciou o Stable Diffusion Video, uma versão do modelo de Inteligência Artificial capaz de gerar vídeos coerentes, com 14 ou 25 frames de duração.

Extensões como a AnimateDiff permitem gerar animações até razoáveis, mas o Stable Diffusion Video vai além. Ele recebe uma imagem estática como base, e através de uma tecnologia indistinguível de magia (meus antepassados fugiram do Monolito) deduz a movimentação dos objetos em cena.

De todas essas tecnologias o Stable Diffusion Video é a mais iniciante, mas seu potencial é quase infinito. Daqui a 5 anos (que em anos de IA equivale a seis meses) vamos ter capacidade de gerar vídeos coerentes sem limite de tempo.

Conclusão

Muito mais aconteceu em 2023 no mundo da Inteligência Artificial, deixei de lado todo o drama da OpenAI e a saída momentânea de Sam Altman, DALL-E 3, o fiasco do Microsoft CoPilot (pronto, falei) , as brigas exigindo regulamentação, e toda a questão sobre uso indevido (sobre isso escreverei no Contraditorium).

Este artigo é mais uma desculpa pra dar uma lista de links e caminho das pedras pra quem quiser aprender a brincar com IA, e acho que consegui. De qualquer jeito, fiquem com esta paisagem de Angra, que nunca pensei ver de novo em movimento, mas graças à Inteligência Artificial, aqui estamos!

Inteligência Artificial – Retrospectiva 2023

08 Dec 01:13

Intel Will Submit New Xe Kernel Graphics Driver Soon - Likely For Linux 6.8

It looks like Intel will soon be submitting their first Xe Direct Rendering Manager (DRM) driver pull request to DRM-Next for mainlining this modern, current and future hardware focused kernel graphics driver to be added to the mainline Linux kernel. It looks like this mainlining is set to still happen in time for the upcoming Linux 6.8 cycle...
30 Nov 14:10

Netflix lands its first big-name games with Grand Theft Auto trilogy

by Samuel Axon
A logo for the enhanced edition of the GTA trilogy, next to cover artwork from the three games

Enlarge / The enhanced edition trilogy includes Grand Theft Auto 3, Grand Theft Auto Vice City, and Grand Theft Auto San Andreas. (credit: Rockstar Games)

Netflix subscribers will be able to play the three original 3D Grand Theft Auto games on iOS and Android starting in December, according to a blog post from the streamer.

The titles included are 2001's Grand Theft Auto III, 2002's Grand Theft Auto: Vice City, and 2004's Grand Theft Auto: San Andreas.

All three released initially on the PS2 and Xbox. The first 3D entry in the series, Grand Theft Auto III, was a crossover cultural sensation when it debuted, and it is credited as one of the main originators of the open-world genre, which remains one of the most popular genres in triple-A games to this day.

Read 9 remaining paragraphs | Comments

01 Nov 15:52

Under the Stars

If you live in Los Angeles (around 33°52'N, roughly the latitude of Hermosa Beach) the black hole in V404 Cygni passes over you each day. On Christmas Day it will be directly overhead around 2pm.
19 Oct 17:05

Intel’s Ponte Vecchio: Chiplets Gone Crazy

by clamchowder

Intel is a newcomer to the world of discrete graphics cards, and the company’s Xe architecture is driving its effort to establish itself alongside AMD and Nvidia. We’ve seen Xe variants serve in integrated GPUs and midrange discrete cards, but Intel’s not stopping there. Their GPU ambitions extend to the datacenter and supercomputing markets. That’s where Ponte Vecchio (PVC) comes in.

Like other compute-oriented GPUs, PVC goes wide and slow. High memory bandwidth and FP64 throughput differentiate it from client architectures, which emphasize FP32 throughput and use caching to reduce memory bandwidth demands. Compared to Nvidia’s H100 and AMD’s MI210, PVC stands out because it lacks fixed function graphics hardware. H100 and MI210 still have some form of texture units, but PVC doesn’t have any at all. Combine that with its lack of display outputs, and calling PVC a GPU is pretty funny. It’s really a giant, parallel processor that happens to be programmed in the same way you’d program a GPU for compute.

Slide from Intel’s Hot Chips presentation, showing chiplets on PVC

PVC’s physical design makes it even more unique, because it’s a chiplet extravaganza. Compute tiles fabricated on TSMC’s 5 nm process contain PVC’s basic building blocks, called Xe Cores. They sit on top of a 640 mm2 base tile, which contains a giant 144 MB L2 cache and uses Intel’s 7 process. The base tile then acts as an IO die, connecting to HBM2e, PCIe, and peer GPUs. PVC combines five different process nodes in the same package, and connects them using embedded bridges or 3D stacking. Intel has pulled all the stops on advanced packaging, making PVC a fascinating product.

Today, we’re looking at the Intel GPU Max 1100, which implements 56 Xe Cores and clocks up to 1.55 GHz. Its base tile has 108 MB of L2 cache enabled, and connects to 48 GB of HBM2e memory with a theoretical 1.2 TB/s of bandwidth. The Max 1100 comes as a PCIe card with a 300W TDP, making it similar to AMD’s MI210 and Nvidia’s H100 PCIe.

Cache and Memory Latency

Intel uses a two-level caching setup, but with higher capacity and latency than contemporary compute GPUs. To start, each Xe Core gets a massive 512 KB L1 cache. Like Nvidia, Intel allocates both L1 cache and local memory out of the same block of storage. Unlike Nvidia, Intel recognized that our memory latency test doesn’t use any local memory, and gave it the entire 512 KB. L1 latency is reasonably good considering the cache’s size.

If accesses miss the L1, they proceed to access L2 on the base tile. Intel’s L2 cache (sometimes called a L3) is massive, with 144 MB of nominal capacity. We have 108 MB enabled on the SKU we had access to, which is still no joke. A fully enabled AD102 die from Nvidia’s Ada Lovelace architecture has 96 MB of L2 cache, while AMD’s RDNA 2 has up to 128 MB of Infinity Cache. Both architectures represent a recent trend where consumer GPUs are using giant caches to avoid exotic VRAM setups, and PVC’s cache is firmly in the “giant cache” area.

From Intel’s ISSCC presentation. The L2 is called a L3 here, in keeping with Intel’s naming scheme from older integrated graphics architectures where each subslice (Xe Core equivalent) had two levels of texture cache

Intel’s L2 latency unfortunately is quite high at over 286 ns. Some consumer GPUs even enjoy lower VRAM latency. I don’t think chiplets are a major culprit, since vertical stacking on AMD’s CPUs only adds a couple extra nanoseconds of latency. Rather, I suspect Intel struggled because they were not used to making big GPUs with big caches. Their Arc A750 has nearly 40% higher L2 latency than the A380 for a 4x L2 capacity increase. Contrast that with a 23% latency increase when going from the RX 7600’s 32 MB Infinity Cache to the RX 6900 XT’s 128 MB one. Larger GPUs with bigger caches tend to see higher latency, but Intel struggles with this more than AMD or Nvidia.

Finally, Intel’s presentation at ISSCC shows the TLB implemented on the base tile, alongside the L2 cache. That suggests the L1 cache is virtually addressed, and hitting the L2 may incur an address translation delay. I’m sure a lot of GPUs do this, but if Intel’s TLB lookups are slow, they would add to cache latency.

High L2 latency may seem pretty bad at first glance, but coping mechanisms exist. PVC’s large 512 KB L1 is as large as L2 capacity on older GPUs, like Nvidia’s GTX 680 or AMD’s Radeon HD 6950. It’s also larger than the L1 mid-level caches on AMD’s RDNA 2 and 3 architectures. Intel’s L1 is really serving as both a first level cache and a mid-level cache. Compared to AMD and Nvidia, Intel’s L2 cache should see far fewer accesses because the L1 will have fewer misses.

We’ve already seen compute architectures experience higher latency than client ones, but PVC takes this another step further. RDNA 2’s Infinity Cache has lower latency than PVC’s L2, despite having similar capacity. VRAM latency is nearly 600 ns, which puts it roughly on par with AMD’s old Terascale 3 architecture. If workloads don’t have good L1 hitrates, Intel’s GPU will need a lot of work in flight to hide latency.

Intel’s A770 is another interesting comparison, because it’s another Xe architecture variant. Like PVC, the A770 has a larger L1 cache than its peers. Its L2 is reasonably sized at 16 MB, putting the A770 somewhere between GPUs with a legacy caching strategy, and newer ones that emphasize massive caching capacity. While A770 appears to take a conservative approach, PVC’s giant L2 cache points towards Intel’s ambitions to combine giant caching capacity with high memory bandwidth to create something special.

Local Memory Latency

Besides global memory, which corresponds to memory as we know it on a CPU, GPUs have local memory that acts as a software managed scratchpad. Intel calls Shared Local Memory (SLM). Nvidia calls the same thing Shared Memory, and AMD calls it the Local Data Share (LDS). Intel’s SLM strategy has varied throughout the years. Their integrated graphics architectures started by allocating SLM out of an iGPU-wide cache. That resulted in poor latency and low bandwidth for what should have been a high performance block of memory, so Intel moved SLM into the subslices (the predecessor to Xe Cores). PVC switches things up again by merging the SLM with the L1 cache.

SLM latency is decent on the Intel Max 1100, but isn’t anything to write home about. It’s a bit faster than accessing the same block of storage as L1 cache because there’s no need to check tags and cacheline state.

Compared to other architectures, PVC gets bracketed by GCN and CDNA 2. Consumer architectures from both AMD and Nvidia offer significantly lower latency access to local memory. H100’s shared memory is also very fast.

Atomics Latency

Atomic operations can help pass data between threads and ensure ordering. Here, we’re using OpenCL’s atomic_cmpxchg function to bounce data between two threads. This is the closest we can get to a GPU core to core latency test.

Unlike a CPU, we can test with both local and global memory. We should see the best performance when bouncing data through local memory, because the SLM/LDS/Shmem structure that backs local memory is designed for low latency data sharing. Threads have to be part of the same workgroup to use this method, which means they’re guaranteed to run on the same Intel Xe Core, AMD Compute Unit, or Nvidia Streaming Multiprocessor. It’s a bit like testing core to core latency between sibling threads on a SMT-enabled CPU.

Intel performs reasonably well exchanging data through an Xe Core’s Shared Local Memory. As with the uncontested local memory test, it gets bracketed by two GCN-derived GPUs. Consumer GPUs are again faster. H100 is also quite fast, though not by the same margin as before.

If we use atomic_compxchg on global memory, latency of course is much higher. Intel now falls far behind AMD’s CDNA 2, and very far behind consumer graphics architectures.

In fairness to Intel, bouncing data between threads on a massive GPU isn’t easy. PVC has an incredibly complex interconnect, with cross-die interfaces and a switching fabric on the base die. With that in mind, the Intel Max 1100 only barely loses to Nvidia’s monolithic H100. Intel’s GPU also ties with Nvidia’s Tesla K80, which scored 172.21 ns in this test. Kepler was a very well received architecture and K80 GPUs are so good that they’re still in use today.

Cache Bandwidth

Shared caches need to provide enough bandwidth to service all of their clients. That’s particularly difficult on GPUs, where workloads tend to want a lot of bandwidth. PVC’s L2 cache is special because it’s implemented on a separate base die. All other GPUs (at the time of this writing) place the L2 on the same die as their basic compute building blocks, making PVC unique.

Thankfully, Intel’s 3D stacking interface provides plenty of bandwidth. We peaked at just over 2.7 TB/s with 64 MB of data in play with a different test run that uses 1024 threads per workgroup instead of 256 as on other GPUs. It’s not quite as good as AMD’s MI210 or even H100’s “far” L2 partition. But trading a bit of L2 bandwidth for more capacity seems like a fair choice. PVC does have less memory bandwidth than MI210 or H100, so there’s less bandwidth to service L2 misses with.

We can also see that PVC’s slope is much shallower then the slops for the other GPUs here. Usually, we see bandwidth gently taper off as we get enough work in flight to saturate the cache. Instead, PVC seemingly can’t fully saturate its cache even with over 500 million OpenCL threads being thrown at the GPU to crunch through. For some perspective both MI210 and H100 only needed about 1 million threads to get their high utilization.

PVC may have the biggest L2 cache of any contemporary compute GPU, but it’s not alone in implementing large caches. AMD’s RDNA 2 and RDNA 3 have 128 MB and 96 MB of Infinity Cache, which effectively acts as a fourth-level cache. RDNA 3 implements its Infinity Cache on separate memory controller dies, so its accesses have to go through a cross-die interface just like on PVC. RDNA 2 and Ada Lovelace keep their high capacity caches within a monolithic die.

Intel’s L2 offers similar bandwidth to RDNA3’s Infinity Cache. However, Infinity Cache doesn’t need the same amount of bandwidth as a L2 cache because AMD has a multi-megabyte L2 cache in front of it. Nvidia’s Ada Lovelace needs a lot of L2 bandwidth because it only has 128 KB cache in front of it. Ada’s L1 capacity will be even lower if some of it is used for shared memory. So, Ada’s L2 can deliver nearly 5 TB/s of bandwidth.

VRAM Bandwidth

Consumer GPUs like AMD’s RDNA 2 and Nvidia’s Ada Lovelace have opted for large caches instead of expensive memory configurations, while compute GPUs like MI210 and H100 have done the opposite. Intel’s approach is to do both. A PVC tile features four stacks of HBM2e memory, giving it more memory bandwidth than any consumer GPU. Still, PVC falls a bit short compared to other compute GPUs.

We should see 1228.8 GB/s of theoretical bandwidth, but my test doesn’t get anywhere close. I’m not sure what happened here. Perhaps Intel’s very high memory latency makes it difficult to make use of the bandwidth, and the Xe Cores can’t track enough cache misses in flight to hide that latency.

Compute Throughput

Each Xe Core in PVC consists of eight 512-bit vector engines, which would be good for 16 32-bit operations per cycle. Nvidia and AMD’s designs have settled on using four partitions in their basic building blocks. H100’s SMs have four 32-wide SMSPs, or 1024-bit wide when we consider 32-bit operations. MI210’s CUs have four 16-wide SIMDs, which are also 1024-bits wide because each lane natively handles 64-bit operations.

Intel’s Xe Core, as shown in their architecture day presentation

Intel’s Max 1100 has 56 of these Xe Cores, so it has 7168 lanes running at 1.55 GHz, for a nominal throughput of 11.1 billion operations per second. The MI210’s 6656 lanes at 1.7 GHz should provide 11.3 GOPS, making it similar in size. Nvidia’s H100 PCIe is much larger. With 14592 vector lanes at 1.755 GHz, Nvidia’s monster can do 25.6 GOPS.

Intel makes up some ground if we test instruction rate with 500 million OpenCL threads like we did with cache bandwidth. For reference, FluidX3D’s most common kernel launches with 16 million threads, and a full-screen pixel shader at 4K launches 8 million threads. Our instruction rate test also gets over theoretical throughput, perhaps indicating that the compiler is eliminating some operations. We weren’t able to get to the bottom of this because we don’t have the profiling tools necessary to get disassembly from the GPU.

But even with what looks like an overestimate, AMD’s MI210 has a substantial lead in FP32 throughput if it can use packed operations. Intel can’t do packed FP32 execution but can execute 16-bit integer operations at double rate. FP16 operations can also execute at double rate, though only for adds. This is likely a compiler issue where the v0 += acc * v0 sequence couldn’t be converted into a FMA instruction.

Nvidia GPUs do not support FP16 in OpenCL

PVC can boost throughput in other ways too. INT32 and FP32 operations can dual issue, giving a substantial performance boost if those operations are evenly mixed. This is true dual issue operation, unlike the claimed “dual issue” on post-Turing Nvidia architectures, where mixing FP32 and INT32 operations won’t get you increased throughput over INT32 alone. Nvidia’s “integer datapath” actually deals with INT32 multiplication. In that respect, PVC and Nvidia follow a similar strategy, and can do 32-bit integer multiplies at half rate. Intel likely carried this strategy over from their integrated graphics architectures. Gen 9 (Skylake integrated graphics) could also do half rate integer multiplication.

Finally, double precision floating point performance is an important differentiator for datacenter GPUs. Consumer grade cards can put up a decent performance in other categories especially considering their price, but generally lack competent FP64 hardware. PVC can do FP64 additions at full rate, but strangely couldn’t do so with FP64 FMAs. I wonder what’s going on here, because their Gen 9 architecture could do FP64 adds and FMAs at the same rate using the same test code.

(Macro) Benchmarks

FluidX3D (FP32)

FluidX3D uses the lattice Boltzmann method to simulate fluid behavior. It uses a variety of techniques to achieve acceptable accuracy without using FP64. Density distribution function (DDF) values are shifted into ranges where FP32 can provide enough precision. DDF summation uses alternating additions and subtractions to reduce loss of significance errors. The result is that FluidX3D can produce results very close to the FP64 “ground truth” while using FP32 operations that perform well on consumer GPUs. I’m using FluidX3D’s built in benchmark here.

Intel’s Max 1100 does not compete favorably against the current crop of compute GPUs from AMD and Nvidia. AMD’s similarly sized MI210 wins by more than 47%, while Nvidia’s giant H100 is three times faster. PVC performs closest to AMD’s RX 7900 XTX, showing that consumer graphics architectures can hit pretty hard in FP32 compute. RDNA 3 combines tremendous FP32 throughput, with caching capacity and memory bandwidth not far off PVC’s, so its performance isn’t a surprise.

Calculate Gravitational Potential

CGP is a workload written by Clamchowder. It does a brute force calculation of gravitational potential, given a map of column density. Code quality is roughly what you’d expect from a typical high school student working on a research project at 3 AM after doing the necessary things to have any chance at college admission (homework for 8 classes, studying for 9 APs, practicing two instruments, playing a sport, and definitely not getting the four hours of sleep recommended in the “sleep four hours pass, sleep five hours fail” saying). In other words, it’s completely unoptimized, and should represent what happens if you’re using hardware time to save human brain time.

Consumer GPUs suffer heavily in this workload because they don’t have a lot of hardware FP64 units, and PVC shows its worth. It’s twice as fast as AMD’s RX 6900 XT, and blows Nvidia’s consumer GA102 chip (A10) out of the water.

However, PVC struggles against recent datacenter GPUs, just as it did in FluidX3D. MI210 outperforms it by a staggering margin by natively handling FP64. H100 does as well, by simply being a massive GPU. PVC also takes a surprising loss to the older Radeon VII, which has a decent 1:4 FP64 ratio.

PVC’s Chiplet Setup

Now that we have an idea of how PVC performs, we can make a few observations on its chiplet setup. PVC’s chiplet setup is fascinating because Intel has chosen to use a more complex chiplet configuration than Zen 4 or RDNA 3. Chiplets are challenging, so that’s risky. Die to die interfaces create area overhead. Data movement between dies is often more expensive than doing so within a monolithic die. Vertically stacked dies can be harder to cool. Successful chiplet implementations mitigate these problems to enjoy cost benefits while suffering minimal performance degradation compared to a monolithic solution.

Lets go over these areas one by one, starting with area.

Area Overhead

Chiplets aim to reduce cost by letting engineers use cheaper process nodes when using better nodes would have limited benefit, and by using smaller individual dies to increase yield. However, chiplets will use more total area than an equivalent monolithic implementation due to duplicated logic and cross-die interfaces. Area overhead can also be more subtle. For example, Zen 4 uses a large and fast L3 cache to mitigate the latency and bandwidth hit of going through an IO die. The fast L3 takes up more die area on a Zen 4 CCD than the cores themselves.

Slide from AMD showing a ~10% area overhead to using chiplets

On the area front, Ponte Vecchio uses a 640 mm2 base die. Rough pixel counting gives us the following for the Intel Max 1100:

Die Node Contains Area Count Total Area
Base Intel 7 Foveros Switch fabric, 144 MB of L2 cache, IO to HBM and peer GPUs 640 mm2 1 640 mm2
Compute TSMC N5 8x Xe Cores 40.31 mm2 8 322.47 mm2
RAMBO Intel 7 Four 3.75 MB banks of extra L2 cache each 14.17 mm2 4 60.66 mm2
Xe Link TSMC N7 Cross-package links and switching logic 74.12 mm2 1 74.12 mm2
The Max 1100 has 56 Xe Cores, so we’re looking at half of a PVC package

One PVC GPU instance uses 1097 mm2 of total die area across various nodes, excluding HBM. I don’t think any RAMBO cache is enabled on the Max 1100, so we can also consider a 1036 mm2 figure for fairness. AMD’s MI210 uses a 724 mm2 die on TSMC’s N6 process and achieves better performance. Intel is therefore taking at least a 43-51% area overhead. I’m saying at least, because a substantial amount of area is using TSMC’s N5 node, which is more advanced than the N6 node used by AMD. If we use AMD Epyc’s 10% chiplet area overhead as a benchmark, PVC looks unbalanced.

Data Movement

Moving data between chiplets is often more challenging than doing so within a monolithic die. Old Nvidia research estimated 0.54 pj/bit of power draw for cross-chiplet links, but that paper did not consider 3D stacking. AMD showed that 3D stacking could allow massive bandwidth with very little power cost.

Slide from AMD’s Hot Chips presentation on Zen 3’s VCache implementation, showing less than 1W of interconnect power for 3D stacking

On Ponte Vecchio, compute tile to base tile communication would be the highest bandwidth cross-die interface. The L2 cache can provide several terabytes per second, and that’s handled by a 3D stacking interface well suited to such high bandwidth demands. Xe Link and HBM use 2D interfaces, but don’t deal with nearly as much bandwidth. Intel is using the best and highest bandwidth interfaces where they’re needed, making for a sound strategy here.

Cooling

PVC employs 3D stacking in spades. 3D stacking can reduce critical path lengths and package size, but can also create cooling challenges. AMD’s VCache addresses cooling by not stacking any logic over the cores. On my 7950X3D, the VCache CCD clocked 7% lower on average than the non-VCache one. AMD’s MI210 runs at 1.7 GHz, and thus clocks 9.7% faster than Intel’s Max 1100. That’s a problem. PVC puts its shaders on TSMC’s newer 5 nm node, and targets 300W just like MI210. If chiplets are delivering the benefits they’re supposed to, PVC should be pulling ahead.

Intel never published Ponte Vecchio’s die layout, but their slides indicate that IO interfaces are placed around the die edge (as is typical in many designs). IO interfaces shouldn’t get particularly hot, and are covered by “thermal tiles” with no other function other besides conducting heat.

If the compute tiles aren’t overlapping IO, they’re sitting on top of either cache or the switch fabric. Both of those would create heat, which would have to be dissipated through the hot compute tiles. That could exacerbate any hotspot issues within the compute tiles, and force the cooling solution to deal with more heat in the same surface area.

Zen 4 with VCache in comparison only sees a 7% clock speed penalty compared to a vanilla setup without 3D stacking. That’s largely because AMD avoided stacking any cache or logic on top of the CPU cores. In fact, most of VCache’s clock speed deficit appears to come from the vertically stacked cache not being able to handle high voltage, rather than thermal issues. Intel should adopt a similar strategy, and try to overlap compute with cache as little as possible. I don’t think this is an easy change because there’s a massive 144 MB of L2 on the base die, and the switching fabric is likely not small either.

RDNA 3’s chiplet strategy offers an alternative approach. 3D stacking is avoided in favor of putting cache on memory controller dies (MCDs), which use an interposer to get enough cross-die bandwidth. We saw earlier that Intel’s L2 isn’t too much faster than RDNA 3’s Infinity Cache. Certainly RDNA 3’s approach is not without compromises because it’ll make cache bandwidth more difficult to scale. But not all workloads will be bound by last level cache bandwidth, especially with 512 KB L1 caches in play. And higher clock speed could let PVC narrow the performance gap with AMD’s MI210.

Final Words: A Foot in the Door

Compute GPUs like Nvidia’s H100 and AMD’s MI210 push the boundaries of how fast we can process information and are among the most complex chips around. AMD and Nvidia are where they are today thanks to decades of experience building large GPUs. Intel may have a lot of money and good engineers, but they don’t have the same experience. Short of a miracle, their journey to build a big GPU will be an arduous one.

For their part, Intel made it even more arduous by using a chiplet setup with borderline insane complexity. From an outsider’s perspective, they seem to have looked at available nodes and packaging technologies, and decided all of the above would be appropriate. Doing this on any product would be risky, let alone a first entry into a new market.

Intel therefore deserves a lot of credit for not only getting the thing working, but creating a product that’s competent in isolation. Intel’s Max 1100 is a legitimately useful compute GPU capable of decent performance. It’s a far cry from the Moore Threads MTT S80, which uses a conventional monolithic die and fails to match a budget GPU from the Maxwell generation, while failing to run many games.

Of course, Intel has their work cut out for them. Landing between Nvidia’s old P100 and V100 GPUs is not where they want to be. PVC has plenty of weaknesses that Intel has to solve if they want to move up the performance ladder. L2 cache and VRAM latency are way too high. FP64 FMA throughput is curiously low, even in a microbenchmark. For the massive die area investment, PVC doesn’t bring enough compute power to draw even with AMD’s MI210.

With that in mind, Ponte Vecchio is better seen as a learning experience. Intel engineers likely gained a lot of experience with different process nodes and packaging technologies while developing PVC. PVC deployments like TACC’s Stampede3 and ANL’s Aurora supercomputers will give Intel real world performance data for tuning future architectures. Finally, innovations like a giant, expandable L2 cache give the Xe architecture unique flexibility.

Slide showing RAMBO tiles used to expand L2 cache capacity

Hopefully, we’ll see Intel take lessons and experience from Ponte Vecchio, and develop a stronger datacenter GPU in the coming years.

We would like to thank Intel for allowing us access to a Ponte Vecchio system along with answering some of our questions about Ponte Vecchio.

If you like our articles and journalism, and you want to support us in our endeavors, then consider heading over to our Patreon or our PayPal if you want to toss a few bucks our way. If you would like to talk with the Chips and Cheese staff and the people behind the scenes, then consider joining our Discord.

17 Oct 18:37

Ivy Bridge’s Gen7 Graphics: Intel’s Modern iGPU Push

by clamchowder

Intel has maintained an integrated graphics effort for a long time. The company’s integrated GPUs were not expected to do much beyond driving a display and offloading video decode. You could run games on them, but would probably be looking at poor framerates even at low quality and low resolutions. Ivy Bridge didn’t aim to change that fundamental picture, but it does represent a shift in Intel’s strategy towards creating a more flexible, programmable GPU.

In that sense, Ivy Bridge’s graphics architecture represents a turning point in Intel’s graphics strategy, introducing a solid foundation for Intel’s future graphics efforts. While Intel would not attempt to create a truly high performance graphics solution until nearly a decade later, Ivy Bridge graphics (also known as Gen 7) would pave the way for that effort.

I highly suggest reading Real World Technologies’s excellent article on Ivy Bridge’s graphics architecture, because it provides a lot of contemporary insight into the technology. My goal here is to supplement RWT’s analysis, instead of writing a full length article.

System Level

A Gen 7 iGPU is built from execution units (EUs), organized into subslices. A subslice contains private caches, texture units, and an interface to the rest of the GPU. In that sense, a subslice is most similar to AMD’s Compute Units (CUs) or Nvidia’s Streaming Multiprocessors (SMs). CUs and SMs form the basic building block of AMD and Nvidia’s GPUs, and those companies scale to very large GPUs. Gen 7 isn’t like that. Instead, it lets Intel tune GPU size in very small increments. Intel can adjust the EU count in each subslice, giving them a lot of flexibility to adjust very small GPUs. The equivalent would be adjusting the SIMD count within an AMD CU, or SMSP count within a Nvidia SM.

Gen 7’s shader array is backed by a GPU-wide cache, which Intel confusingly calls L3 (because each subslice has two levels of private texture caches). Unlike discrete GPUs, the iGPU interfaces to the host by being another agent on the CPU’s ring bus. From there, GPU memory accesses get treated a lot like regular CPU requests.

The Gen 7 Execution Unit

Gen 7’s EU is the smallest unit of compute execution. Instructions are fed in from a subslice-shared instruction cache. Then they enter a set of per-wave instruction queues, where they can be selected for execution. Every cycle, Gen 7’s scheduler can select a pair of waves to issue every cycle, to a pair of execution units. Both execution units support the most common operations, so Intel expects dual issue to be a regular mode of operation, rather than occasionally taking load off a primary compute pipeline as is done in Nvidia’s Maxwell and Pascal.

Once a pair of waves is selected for execution, their operands are fetched from the register files by the operand collector. This operand collector supports extremely sophisticated register file addressing. Most GPUs have instructions that directly address the vector register file via a register index. Intel is special and lets you use registers to address your registers. Gen 7’s vector register file supports register-indirect addressing via set of separate address registers. These address registers are 16 bits wide, and each wave can access eight of them, allowing register indirect register addressing for wave8 mode (but not wave16). Variable wave sizes are also supported at the instruction granularity. Each instruction can specify how many elements it wants to operate on and a register file region to get that data from, though terms and conditions may apply.

From Intel’s Programmer’s Reference Manual on the Execution Unit ISA

Unlike Nvidia and AMD, vector registers are not dynamically allocated. Each wave gets 128 registers, and the scheduler can track up to eight active waves. Using fewer registers does not allow increased occupancy, and there’s no way to use more registers per thread in exchange for lower occupancy.

Possibly how an EU is laid out. Picture from Cole L

Once instructions have finished getting their operands, they get to Gen 7’s two execution pipes. For legacy reasons, Intel names these the “FPU Pipe” and “EM Pipe”. EM stands for Extended Math, because that pipe originally only handled complex math operations like reciprocals and inverse square roots. Gen 7 augments that pipe so it can handle floating point additions and fused multiply-adds. In any case, Intel has a lot of execution resources on hand for special operations, and comparatively less for integer operations. INT32 instructions can only use the first pipe, and thus execute at half rate compared to FP32 instructions.

The HD 4000 is roughly comparable to Nvidia’s Quadro 600, which is a small implementation of Nvidia’s Fermi architecture. The Quadro 600 is often used to drive displays in systems without an integrated GPU, or to supplement an iGPU to provide more display outputs. Throughput is similar for basic FP32 operations, but Gen 7 has a large lead in special operations, as well as INT16 and INT8 throughput. These architectures are from a time when low precision throughput wasn’t prioritized, but it’s interesting to see Gen 7 doing a passable job there. Meanwhile, Nvidia has stronger integer multiplication performance, and can do 64-bit integer additions with less of a penalty.

Memory Access

Each Gen 7 subslice is responsible for feeding a gaggle of EUs, and has two-level sampler cache setup to help with that. Again, this contrasts with AMD and Nvidia designs, where there’s just a single level of texture caches in each basic GPU building block.

Instead of using direct memory access instructions, EUs use a ‘send’ instruction to send messages to subslice-level components. For example, global or local memory would be accessed by sending a message to the subslice’s data port. Texture accesses would similarly involve sending a message to the subslice’s sampler. Intel’s EUs are likely quite decoupled from subslice shared logic, while AMD’s SIMDs or Nvidia’s SMSPs are probably tightly integrated with CU or SM level hardware. This could be part of what enables GPU sizing at the EU level.

We can test the sampler caches with buffer accesses, via OpenCL’s image1d_buffer_t type. This type doesn’t support any sampler options, so the sampler simply has to act like a plain AGU and directly retrieve data from memory. Even with such simple accesses, hitting the L1 sampler cache takes an agonizing 141 ns. Latency slightly increases to 145 ns as we get into the L2 sampler cache.

Fermi’s texture caches couldn’t be tested because it doesn’t support image1d_buffer_t

Global memory accesses from compute kernels bypass the samplers and hit the iGPU-wide L3, likely because sampler accesses incur such devastatingly high latency even with sampler options off. The L3 can be accessed with just above 87 ns of latency. Nvidia’s Fermi enjoys slightly lower latency for small test sizes, but can’t match Intel’s combination of low latency and high caching capacity.

Gen 7’s L3 should have 256 KB of capacity, but some part of it will always be reserved for fixed function hardware. I’m testing Gen 7 on a Surface Pro. Because the iGPU is always connected to the built in display, there’s less L3 capacity available for GPU compute when compared to a desktop where the iGPU can be enabled without a display attached. Still, 128 KB of user-visible caching capacity compares quite favorably to small GPUs. Nvidia’s Quadro 600 only has 128 KB of last level cache, and Fermi’s L2 takes far longer to access.

VRAM latency is very well controlled on Intel’s iGPU. Both the Core i5-3317U and Nvidia’s Quadro 600 use a dual channel DDR3-1600 memory setup, but Fermi’s memory latency is far worse. Intel likely benefits from a very latency optimized memory controller, since CPUs are very latency sensitive.

Local Memory

GPUs typically have fast scratchpad memory that offers an alternative to the slower global memory hierarchy. With OpenCL, this memory type is called local memory. AMD and Nvidia GPUs back local memory with fast building-block-private blocks of SRAM. AMD calls this the Local Data Share (LDS), while Nvidia calls it Shared Memory. Gen 7 does not do this. Local memory is allocated out of the GPU’s L3 cache, so latency isn’t the best. It’s a touch better than accessing the L3 as a regular cache, because there’s no need for tag or status checks.

Nvidia also has a block of memory serve double duty as cache and local memory. But that memory is private to a SM and can be accessed quickly. Fermi therefore enjoys far better local memory latency.

Atomics

Atomics can be used to synchronize different threads running on the GPU, and exchange values between threads. Here, we’re testing OpenCL’s atomic_cmpxchg function, on both global and local memory. Typically, a GPU will see far lower thread-to-thread latency when testing with local memory, since that’s roughly analogous to passing data between sibling threads on a SMT-enabled CPU. However, Gen 7’s local memory isn’t local to a subslice, so we don’t see a particularly large latency difference between local and global atomics.

Nvidia’s Fermi is much slower at handling atomics. Atomics on local memory take much longer than uncontested accesses, suggesting the SMs don’t have particularly fast synchronization hardware. There’s also a huge penalty for going to global memory, even though there are only two SMs on the Quadro 600.

Bandwidth

High performance GPUs tend to be quite bandwidth hungry, and can pull hundreds of gigabytes per second from caches and VRAM to feed their giant shader arrays. Gen 7 is not designed for that. Its GPU-level L3 can still deliver a decent amount of bandwidth though, and compares favorably to Nvidia’s tiny Fermi.

Chucking more workgroups at Fermi to see if it’ll scale (not really)

As with any integrated GPU, Gen 7 shares a memory controller with the CPU. In this case, it’s a dual channel DDR3 controller capable of providing 25.6 GB/s. Nvidia’s Quadro 600 has exactly the same, so its only advantage to being a discrete GPU is that it won’t have to fight with the CPU over memory bandwidth.

Bandwidth is low, but that’s expected for a low end GPU of the era. There’s not a lot of compute power to feed on either GPU, so bandwidth bottlenecks shouldn’t be a huge issue.

Link Bandwidth

Integrated GPUs tend to have an advantage when moving data between CPU and GPU memory pools, because the memory pools are physically the same. Intel’s architecture in particular lets the CPU and GPU pass data through the L3 cache. Future Intel iGPUs could get massive bandwidth with small copies between the CPU and CPU, but that didn’t happen until Skylake’s Gen 9 graphics.

When using OpenCL to copy data between the CPU and GPU, both the HD 4000 and Nvidia’s Quadro 600 perform poorly. Nvidia’s card has a PCIe 2.0 x16 link to a FX-8150, via a 990FX chipset. It should be good for up to 8 GB/s of bandwidth, but I don’t get anything close. The HD 4000 should have a 32 byte/cycle interface to the ring bus, which is good for an order of magnitude more bandwidth. Unfortunately, this capability doesn’t shine until a couple of generations later.

Final Words

Despite a few high profile failures like i740 and Larrabee, Intel is no stranger to graphics. While ATI/AMD duked it out with Nvidia at the top end, Intel’s integrated GPUs quietly kept a huge chunk of the computing world running. These iGPUs didn’t have the power for serious gaming, but Intel was never far behind in terms of implementing the features required to run modern games. Gen 7 was part of an effort to keep Intel’s Gen line up to date. It introduces DirectX 11 support, and does a competent job at handling compute code. In doing this, it set a solid hardware foundation for Intel’s future graphics ambitions.

Photo from Cole L

Features from Gen 7 continue to show up today. Subslices may have been renamed to Xe Cores, and EUs are now called Vector Engines. But Intel still has more internal subdivisions in their Xe Cores than AMD and Nvidia have in their equivalent blocks. Occupancy on Intel GPUs is still unaffected by register usage, with 128 registers per thread and 8 threads per EU (or Vector Engine). Ponte Vecchio introduces a “Large GRF” mode where a thread can have 256 registers while occupancy per EU drops to 4 threads, but the connection to Gen 7 is still there.

Thus, Intel’s latest foray into discrete graphics wasn’t out of the blue. Instead, it’s built on years of experience working on and improving the Gen architecture. Larger integrated GPUs like the ones in Ice Lake and Tiger Lake helped Intel develop more confidence, until they felt ready to go big. But building huge GPUs that deal with teraflops of compute and terabytes per second of bandwidth is quite outside Intel’s comfort zone. None of their integrated graphics experience would prepare them for such a task. Something as big as Ponte Vecchio will be very interesting to look at

If you like our articles and journalism, and you want to support us in our endeavors, then consider heading over to our Patreon or our PayPal if you want to toss a few bucks our way. If you would like to talk with the Chips and Cheese staff and the people behind the scenes, then consider joining our Discord.

31 Aug 02:14

*@gmail.com

Hi all, just replying to loop in *@outlook.com and *@yahoo.com.
21 Aug 20:47

You’re the OS is a game that will make you feel for your poor, overworked system

by Kevin Purdy
Screenshot of You're the OS game, with multi-colored processes and gray memory pages

Enlarge / If I click the "I/O Events" in the upper-left corner, maybe some of the frozen processes with a little hourglass will unfreeze. But how soon? Before the other deep-red processes die? I can't work under these conditions! (credit: Pier-Luc Brault)

I spent nearly 20 minutes this morning trying to be a good operating system, but you know what? People expect too much of their computers.

I worked hard to rotate processes through CPU slots, I was speedy to respond to I/O requests, and I didn't even let memory pages get written to disk. But the user—some jerk that I'm guessing keeps 32 shopping tabs open during work—kept rage-quitting as processes slid in attrition from bright green to red to "red with a frozen face emoji." It made me want to get four more cores or potentially just kill a process out of spite. If they were a writer, like me, I'd kill the sandboxed tab with their blog editor open. Learn to focus, scribe!

You're the OS! is a browser game that combines stress, higher-level computer design appreciation, and panic-clicking exercise. Creator Pier-Luc Brault says specifically that the game "has not been created with education in mind," but it might introduce people to principles like process scheduling and memory swapping—"as long as it is made clear that it is not an exact depiction." Brault, a computer science teacher himself, writes that they may use the game to teach about cores, RAM shortages, and the like.

Read 6 remaining paragraphs | Comments

08 Aug 14:01

Intel Gets Hogwarts Legacy Running On Linux Driver By Pretending Not To Be Intel Graphics

Those running Intel Arc Graphics on Linux can now enjoy the Hogwarts Legacy game under Valve's Steam Play. Intel engineers were able to get this open-world action RPG game running on their open-source Vulkan driver by hiding the fact that Intel graphics were rendering this game...
02 Aug 17:33

A jargon-free explanation of how AI large language models work

by Timothy B. Lee
An illustration of words connected by lines.

Enlarge (credit: Aurich Lawson / Ars Technica.)

When ChatGPT was introduced last fall, it sent shockwaves through the technology industry and the larger world. Machine learning researchers had been experimenting with large language models (LLMs) for a few years by that point, but the general public had not been paying close attention and didn’t realize how powerful they had become.

Today, almost everyone has heard about LLMs, and tens of millions of people have tried them out. But not very many people understand how they work.

If you know anything about this subject, you’ve probably heard that LLMs are trained to “predict the next word” and that they require huge amounts of text to do this. But that tends to be where the explanation stops. The details of how they predict the next word is often treated as a deep mystery.

Read 107 remaining paragraphs | Comments

27 Jul 20:51

The IBM mainframe: How it runs and why it survives

by Ars Contributors
A Z16 Mainframe.

Enlarge / A Z16 Mainframe.

Mainframe computers are often seen as ancient machines—practically dinosaurs. But mainframes, which are purpose-built to process enormous amounts of data, are still extremely relevant today. If they’re dinosaurs, they’re T-Rexes, and desktops and server computers are puny mammals to be trodden underfoot.

It’s estimated that there are 10,000 mainframes in use today. They’re used almost exclusively by the largest companies in the world, including two-thirds of Fortune 500 companies, 45 of the world’s top 50 banks, eight of the top 10 insurers, seven of the top 10 global retailers, and eight of the top 10 telecommunications companies. And most of those mainframes come from IBM.

In this explainer, we’ll look at the IBM mainframe computer—what it is, how it works, and why it’s still going strong after over 50 years.

Read 70 remaining paragraphs | Comments

17 Jul 20:35

Intel Arc Graphics Enjoy Nice ~10% Speedup With Recent Open-Source Linux Driver

Merged to Mesa 23.2-devel recently was an Intel Arc Graphics driver change to improve performance. This ended up being a rather significant improvement to performance and in today's article is a look at the performance impact of the recent Mesa work by Intel engineers to better the Arc Graphics family.
17 Jun 00:02

Intel's Core Brand Change

by Dr. Ian Cutress
In this article:

One of the significant mainstays of modern branding for personal computers has been Intel. We all remember Intel Inside, Intel Celeron, Intel Pentium, and perhaps less pervasive but more widely spread, Intel Core. To go along with the Core architecture, Intel Core has been placed on pretty much every CPU Intel has produced that wasn't …

Read more

01 Jun 02:14

Diablo IV — O inferno está chegando!

by Dori Prata

Manter uma série viva e relevante por mais de duas décadas não é uma tarefa simples e quando ela carrega consigo alguns dos fãs mais exigentes da indústria, qualquer escolha tomada pelos criadores poderá se transformar numa enorme tempestade. Mas se com o antecessor a Blizzard inicialmente desagradou muita gente, o Diablo IV está chegando para mostrar que apostar na segurança pode ser uma ótima ideia.

Diablo IV

Crédito: Divulgação/Blizzard Entertainment

Diablo IV inicia falando sobre uma antiga lenda, uma sobre o mundo de Santuário ter sido criado pela união entre um anjo — Inarius — e um demônio — Lilith. A ideia deles era criar um refúgio para aqueles que não quisessem se envolver na guerra entre o céu e o inferno, cabendo à humanidade aproveitar o lugar para construir cidades e a civilização em si.

Porém, após os eventos mostrados no final do Diablo III: Reaper of Souls, o vácuo deixado no poder fez com que demônios voltassem a aterrorizar Santuário e temendo que a paz acabasse, alguns cultistas decidem libertar Lilith. O problema é que por onde passa, a filha de Mephisto causa o mal, causando medo, ira, despertando impulsos reprimidos e o desejo por cometer pecados.

O lado positivo de tudo isso é que, ao mesmo tempo, em que o mal está tomando a região, nosso personagem se aproxima, então, adivinhe para quem sobrará a tarefa de dar um jeito em Lilith e seus asseclas?

Pois essa será a premissa para voltarmos a aniquilar milhares de monstros, alguns chefes cascas-grossas e coletar os mais variados equipamentos, transformando o nosso herói numa verdadeira máquina de matar. E acredite, quando se trata de conteúdo, Diablo IV não deverá te deixar na mão.

Um mundo (aberto) de possibilidades

Diablo IV

Crédito: Divulgação/Blizzard Entertainment

Ao todo o jogo estará dividido em cinco grandes regiões, sendo elas: a congelada Cimeiras Fraturadas; a floresta habitada por Druidas e seres aquáticos, conhecida como Scosglen; a região desértica das Estepes Secas, onde canibais serão uma terrível ameaça; ainda poderemos visitar Kehjistan, um lugar devastado por uma guerra; e por fim, teremos Hawezar, um pântano repleto de bruxas e monstros até mais aterrorizantes.

Embora oferecer regiões variadas não seja inédito na série, o grande diferencial do Diablo IV está na maneira como isso foi feito. Agora, todas elas estão dispostas num mesmo mapa, formando um grande mundo aberto. Assim, poderemos viajar de um lugar para o outro sem haver transições, com todas as cidades, masmorras e pontos de interesse estando disponíveis assim que chegarmos a Kyovashad, a grande cidade que nos servirá como base.

Isso quer dizer que, se o jogador preferir abandonar os dois primeiros atos e partir logo para o terceiro, poderá fazer isso. O interessante é que da maneira como o roteiro foi criado e como a narrativa funciona, não teremos problemas de a história parecer estar atropelando eventos que nem chegamos a ver. Eu ainda acho que o ideal é fazer as missões na ordem correta, mas aqueles que não quiserem encarar todo o Ato 1 por já terem feito isso nos períodos de beta, terão essa liberdade.

Diablo IV

Crédito: Divulgação/Blizzard Entertainment

E por falar em missões, em Diablo IV esbarraremos numa nova a quase todo momento. No geral essas missões paralelas se resumem a levarmos um item de um ponto A até um ponto B, resgatar alguém ou entregar um recado. Confesso que gostaria de ter visto uma maior variedade de tarefas, mas o que realmente me incomodou foi o limite de missões ativas, apenas 20. Felizmente é possível abandonar uma delas e depois reativá-la, mas com tantas estando disponíveis, essa é uma limitação que considero desnecessária.

Ainda assim, o título tenta entregar atividades um pouco diferentes de tempos em tempos, como as masmorras que nos darão poderes especiais ou as Fortalezas, que se mostrarão desafios bem acima da média. A vantagem é que ao tomarmos um desses lugares a cidade passará a ser pacífica, oferecendo comerciantes, missões e pontos de teletransporte.

Outra dessas atividades está nos arredores da cidade de Alzuuda. Será lá que poderemos participar do PvP, sendo que os comerciantes só aceitarão uma moeda local, as Sementes do Ódio. Conquistadas após as batalhas daquela área, o detalhe é que para podermos aproveitar essas sementes elas precisarão passar por um dos quatro Altares de Extração, onde viraremos o alvo dos inimigos e uma tensão crescente se instaurará.

Como a quantidade de pessoas experimentando o jogo nesses últimos dia era algo muito limitada, não tive a oportunidade de enfrentar ninguém ali. Contudo, a zona dedicada ao PvP deverá ser bastante movimentada quando o Diablo IV for lançado e para quem quiser alguns dos itens oferecidos nas lojas de Alzuuda, será inevitável se aventurar por lá.

Crédito: Divulgação/Blizzard Entertainment

Aqui vale mencionar o sistema cosmético presente no novo jogo da Blizzard. Isso porque, além dele nos dar acesso à transmogrificação desde o início da campanha, ainda teremos uma loja dedicada às microtransações. Sei que essa palavra não costuma ressoar muito bem entre os jogadores, mas a desenvolvedora garante que ali só teremos itens cosméticos. Ainda assim, será triste cruzar com algum jogador com um visual muito bacana e saber que só podemos ter algo assim se abrirmos a carteira.

E para quem estava ansioso para ver como funciona o cavalo, as notícias são boas e ruins.  Estreando na franquia, os equinos serão de grande ajuda para atravessamos Santuário, devido sua velocidade de locomoção, mas não espere lutar contra inimigos quando estiver montado neles. A única opção neste caso será desferirmos um golpe apertando quadrado/X, o que poderá ser útil em algumas situações, mas automaticamente nos deixará a pé.

A dica que posso deixar para aqueles que quiserem desbloquear o cavalo é: não se preocupe com isso. Infelizmente o bicho só estará disponível após um determinado ponto (bem avançado) da campanha principal, outra escolha de design que questiono, mas o fato é que não haverá meios de acelerar esse processo. Curta a história, faça a maior quantidade possível de missões e fique tranquilo, que uma hora ele aparecerá.

O despertar dos mortos

Diablo IV

Crédito: Divulgação/Blizzard Entertainment

Como o meu contato anterior com o Diablo IV havia acontecido apenas no primeiro beta, eu não pude experimentar a classe que sempre escolho quando disponível, o Necromante. Mas com o devido acesso à versão completa do jogo, pude evoluir meu personagem até desbloquear todos os nós de sua  árvore de habilidade e fiquei feliz com o que vi.

Conforme o invocador dos mortos se torna mais poderoso, encarar as masmorras e chefes é a certeza de raramente estarmos sozinhos. Podendo arrastar um pequeno exército de esqueletos e até um golem, consegui entender por que algumas pessoas apontavam essa como uma das classes mais poderosas do jogo.

O grande problema aqui é que para invocar um morto-vivo o necromante precisa ter acesso a um corpo largado sempre que um inimigo é derrotado. Porém, como alguns chefes nos enfrentarão boa parte do tempo sozinhos, a possibilidade de ficarmos sem os companheiros ossudos é grande e neste caso, o personagem deixará de ser tão forte.

No caso de não estarmos jogando sozinhos, isso poderá ser contornado com a ajuda de amigos, principalmente se eles forem bons no combate corpo a corpo, deixando assim espaço para realizamos ataques a distância. De qualquer forma, não pense que um necromante de alto nível será invencível, mas que é bonito vê-los criando zonas contaminadas e aproveitando os seguidores de Lilith contra ela mesma, isso é.

Crédito: Divulgação/Blizzard Entertainment

Por fim, foi ótimo ter acesso a um jogo que está rodando tão bem, sem bugs e com uma qualidade visual estupenda no PlayStation 5. Isso deveria ser o comum, mas numa época em que temos visto lançamentos tão problemáticos, foi gratificante ver que o Diablo IV recebeu toda a atenção necessária.

Também me agradou constatar o quanto o jogo poderá nos manter entretidos, dada a quantidade de conteúdo que já estará disponível no primeiro dia e das atualizações que ele receberá. Só para começar, estamos falando de mais de 120 masmorras cujos laytous são gerados aleatoriamente; da promessa de um end-game robusto e das cinco classes, que entregam jogabilidades bem diferentes entre si. Isso sem falar no cross-save e cross-play, nas partidas cooperativas online entre até quatro pessoas e no bom e velho multiplayer de sofá (apenas nos consoles e limitado a dois jogadores).

Portanto, se você gosta da franquia e está procurando algo para se manter ocupado por semanas, talvez até meses ou anos, o Diablo IV permitirá isso e, apesar de algumas novidades, mantendo-se fiel às suas raízes.

Diablo IV — O inferno está chegando!

29 May 20:56

Sobre Arqueologia digital, NASA e óleo de baleia

by Carlos Cardoso

Arqueologia digital soa como a base de alguma piada, afinal, um ramo da tecnologia que ainda está engatinhando, como assim já tem uma “arqueologia”? Na prática eu diria que até já passou da hora.

Arqueologia digital, na visão da Inteligência Artificial (Crédito: Stable Diffusion)

A informação que guardamos em meios eletrônicos é bem acessível, em grande maioria são textos, imagens, vídeos e sons, e essa informação é relativamente atemporal. Sem esforço dá pra ler um relatório sobre “melhoramentos nos portos do Brasil”, publicado em 1875.

Na prática, não é tão simples, tenho um bom exemplo: Alguns anos atrás um amigo pediu ajuda para converter vídeos que havia feito do filho, usando uma QuickCam original, algo parecido com isto:

Uma Quickcam, das pré-históricas (Crédito: Reprodução Internet)

Ela usava porta paralela, gravada a 15fps, 320x240, 16 tons de cinza e em um formato maldito que não existe documentação em lugar nenhum. Eu pesquisei semanas e não consegui converter o arquivo. E eu já tinha o maldito em mãos, poderia ter sido bem pior, nível NASA.

Antes da Apollo XII, a NASA mandou um monte de sondas para fotografar e estudar possíveis locais de pouso. Essas sondas usavam filmes de 70mm, que eram revelados e escaneados dentro da própria sonda, com as imagens transmitidas para a Terra.

Essas imagens eram gravadas em fitas de grande largura de banda, um equipamento altamente especializado. Com as imagens e dados convertidos para formatos mais práticos (e de menor resolução), as fitas foram esquecidas, e muito rapidamente a NASA não tinha mais os gravadores Ampex FR-900 capazes de reproduzi-las. Aos poucos elas foram deixadas de lado, muitas se perderam e só em 2007 um grupo descobriu 1500 fitas em um arquivo da NASA e -mais importante- uma ex-funcionária que tinha algumas fitas e um FR-900 em um galpão.

Uma das duas unidades de fita de instrumentação Ampex FR-900 localizadas nas instalações do Lunar Orbiter Image Recovery Project (Crédito: Misternuvistor / LOIRP)

Foi fundado o Lunar Orbiter Image Recovery Project, que conseguiu recuperar 2000 imagens, trabalhando em um McDonald’s abandonado, tendo que consertar os gravadores que conseguiram encontrar. E estamos falando de equipamentos de meados da Década de 1960. Um dos problemas foi achar um equivalente sintético ao óleo de baleia que a Ampex usava para lubrificar os gravadores.

No final, o projeto deu certo, e as imagens recuperadas foram muito melhores que tudo que a NASA havia divulgado na época das sondas.

Na esquerda, imagem divulgada pela NASA. Na direita, imagem recuperada pelo LOIRP das fitas esquecidas (Crédito: LOIRP)

Nem todo caso é bem-sucedido, e o tempo torna cada vez mais difícil esse tipo de arqueologia digital. Tenho textos em disquetes de 5¼ do tempo de meu 386 que só conseguiria recuperar após investir uma grana considerável. Muitas empresas têm fitas de backup gravadas em drives que não mais existem, não são mais fabricados e estão desaparecendo dos eBays da vida.

Quanta gente ainda tem CD-Players em casa? Ou player para fitas K-7? Ou computador com porta paralela?

Nossos PCs não têm mais slots ISA-8, ISA-16, VESA Local Bus, AGP ou mesmo PCI. Também não há mais interface para disquetes, nem IDE. Qualquer equipamento que dependa dessas conexões, se torna inacessível.

Um Zip Drive com conexão SCSI. Isso faz qualquer um de TI chorar, pensando no trabalho que daria para fazer funcionar (Crédito: Reprodução Internet)

No campo do armazenamento externo, hoje estabilizamos no MicroSD e nos flashdrives USB, mas quantos dados perdidos pelo mundo ainda há em:  CompactFlash, Memory Stick, XD Picture Card, CFast, XQD, MultiMediaCard, SmartMedia, MiniSD, Microdrive, RS-MMC, Miniature Card, SxS (S-by-S), P2 (Professional Plug-in), Secure Digital miniSD (miniSDHC), Secure Digital microSD (microSDHC, microSDXC), Secure Digital Extended Capacity (SDXC), Secure Digital High Capacity (SDHC), TransFlash (T-Flash), Memory Stick PRO-HG Duo, Memory Stick Duo, Memory Stick PRO Duo, Memory Stick Micro (M2), MMCmicro, DV RS-MMC, MultiMediaCardmobile (MMCmobile), MultiMediaCardmicro (MMCmicro), Intelligent Stick (iStick), C-Flash, Picture Card, SecureMMC, DV RS-MMC, Secure Digital Reduced Size ou MultiMediaCard (SDRSMMC) ?

Quem acompanha o excelente canal Techmoan sabe que toda semana ele desencava um formato de vídeo ou áudio obscuro, de gravadores de brinquedo a câmeras de vídeo que usavam fitas k-7, incluindo coisas como o DataPlay, esse disquinho de 2002 que acondicionava respeitáveis 500MB por disco.

Agora pense em acervos de videotecas, emissoras de TV e colecionadores, sem dinheiro ou tempo para ser digitalizados, enquanto os equipamentos capazes de reproduzi-los se deterioram dia-a-dia.

Cartuchos DataPlay. Olha que coisa mais fofa! (Crédito: Divulgação)

Com eles, perde-se a informação de como os dados estão armazenados. Esses sinais analógicos ou digitais não são simples imagens em um filme cinematográfico, algumas técnicas bem criativas são utilizadas para contornar restrições tecnológicas. Nos videocassetes, por exemplo, o sinal de vídeo exige mais banda do que cabe na largura de uma fita normal. A solução seria aumentar o tamanho da fita, mas não era o que os projetistas queriam, ela deveria ser menor que uma fita U-Matic ou outros modelos profissionais.

A solução? Eles inclinaram as cabeças de gravação, assim o sinal de uma linha inteira de imagem podia ser gravada de uma vez, em uma fita mais estreita.

De ladinho é mais gostoso, diriam os engenheiros da JVC (Crédito: Reprodução Internet)

Em um mundo ideal todos os antigos arquivos seriam digitalizados e disponibilizados em bancos de dados online, de forma agnóstica, ou seja, independente da mídia física original. Na prática assim como acabar com a fome do mundo, não há dinheiro no mundo pra isso.

Em 2020 a chamada Datasfera, a soma dos dados armazenados e criados no mundo, era de 59 Zetabytes. (1 Zetabyte = 1 trilhão de Gigabytes). A projeção para 2025 é que esse número chegue a 175 Zetabytes.

Isso, claro, sem levar em conta os dados ainda em formatos analógicos, como programas de TV, gravações, revistas, jornais, cartas, mapas, objetos em museus, rótulos de xampu e todo o resto.

Antes que alguém faça analogias com a Pedra da Roseta e outros documentos clássicos, como a tabuleta de Ea-nasir, é bom lembrar que pedra é um tanto inviável como meio de preservação de dados quando trabalhamos em Zetabytes.

Tábua de Ea-Nasir, circa 1750 AC, considerada a primeira reclamação de consumidor. Na Babilônia um sujeito chamado Nanni escreve para um comerciante chamado Ea-Nasir reclamando da qualidade dos lingotes de cobre que ele havia vendido (Crédito: Museu Britânico)

E não, ainda não há um meio físico digital imune ao tempo. Os CD-ROMs surgiram com a promessa de que durariam 100 anos, mas todo mundo já viu um CD sucumbir aos fungos ou à qualidade xing-ling, descascando feito uma sueca em Copacabana com poucos anos de uso. (O CD, não a sueca)

Os futuros praticantes de arqueologia digital terão dois grandes problemas: Encontrar, reconstruir reformar ou simular hardware compatível com os dispositivos e armazenamento, e talvez a parte mais complicada, criar o software para entender e traduzir os formatos.

Software é algo que depende de cultura, mesmo com especificações muita coisa é deixada implícita, pois é algo que “todo mundo sabe”, e 50, 100 anos depois esse conhecimento comum provavelmente não existirá mais.

Há línguas que hoje não conseguimos decifrar. Linear A, uma linguagem escrita usada em Creta, entre 1800 e 1450 AC é uma delas. Sabemos que é baseada em grego arcaico, é muito parecida com Linear B, que já foi decifrada, mas nada se encaixa.

Em computação, formatos caem em desuso rapidamente. Hoje em dia é virtualmente impossível achar documentação sobre o Carta Certa, um raro bom software nacional, fez muito sucesso algumas décadas atrás, tinha acentuação, capacidade de formatação WYSIWYG com um sistema de tags parecido com o ainda não-inventado HTML, e muito mais. Converter um arquivo em Carta Certa para Word seria no mínimo trabalhoso.

Sim, dá pra rodar o Carta Certa no DOSBox (Crédito: Meio Bit)

Outros formatos, como imagens em PCX são piores ainda, e nem quero imaginar o trabalho de converter algo como um arquivo do Ventura Publisher ou Pagemaker.

Conclusão:

Mantenha seus arquivos em formatos digitais e atualizados, mesmo que isso tenha um alto custo inicial. Invista em backups, locais e em nuvem, e exporte os arquivos para múltiplos formatos, independente do formato original ser proprietário ou não.

Se você for desenvolvedor, documente fartamente seus formatos de arquivos, tente depender o mínimo de bibliotecas externas, e nunca assuma nada. Imagine que está escrevendo para alienígenas, explique mesmo os truques mais básicos.

Do contrário em 500 anos ninguém vai ser capaz de ver todas as fotos do almoço que a gente tirou pro Instagram.

Sobre Arqueologia digital, NASA e óleo de baleia

19 May 03:10

Bug Bounty Programs May Sound Great, But Aren't Always Handled Well

Bug bounty programs setup by large corporations to reward and recognize security researchers for properly reporting new bugs and security vulnerabilities is a great concept, but in practice isn't always handled well. Security researcher Adam Zabrocki recently shared the troubles he encountered in the bug bounty handling at Google for Chrome OS and in turn for Intel with it having been an i915 Linux kernel graphics driver vulnerability...
03 May 02:47

Starship - A história do foguete mais poderoso do mundo

by Carlos Cardoso

Parece que foi ontem, mas foi em 2012 que a Starship teve seu primeiro anúncio oficial, ainda com o ambicioso nome Mars Colonial Transporter. De lá pra cá muita água rolou debaixo da ponte.

Starship e Super Heavy (Crédito: SpaceX)

A SpaceX tem a nem um pouco ambiciosa meta de tornar a Humanidade uma espécie interplanetária, mas eles sabem que é inviável para qualquer empresa montar uma colônia fora da Terra, então a estratégia (do grego Strategos) deles é simples: Criar uma infra-estrutura de transporte com um custo tão baixo que entidades interessadas em colonizar outros mundos se sintam tentadas a contratar o carreto da SpaceX.

Para chegar nesse ponto, a SpaceX precisava de fluxo de caixa positivo, o que conseguiu com o Falcon 9. Existe uma percepção que a SpaceX destruiu vários até acertar, mas o Falcon 9 foi bem-sucedido em seu primeiro vôo.

Todo aquele show pirotécnico aconteceu nas tentativas de pouso, depois que o Falcon 9 já havia cumprido sua missão e colocado sua carga em órbita.

Os números, são impressionantes. Na metade de abril de 2023 foram lançados 223 foguetes Falcon 9. Desses, 221 foram missões bem-sucedidas. Uma foi perda total, uma sucesso parcial e um explodiu durante um teste estático. Hoje o Falcon 9 é o foguete mais confiável já construído.

Depois que dominou a técnica de pouso, o custo de lançamento do Falcon 9 caiu mais rápido que um Falcon 9 antes da SpaceX dominar a técnica de pouso, e conseqüentemente, a reutilização do primeiro estágio. Isso tornou possível a Starlink, uma das muitas propostas de mega-constelação para fornecimento de acesso Internet em qualquer lugar do planeta.

O conceito em si é simples, mas uma constelação com dezenas de milhares de satélites demanda lançamentos constantes, e mesmo que você seja dono de uma empresa de lançamentos espaciais, a conta não fecha.

Com o foguete reutilizável, a SpaceX conseguiu viabilizar a primeira fase da Starlink, que está salvando vidas na Ucrânia, irritando o Irã e mudando o dia-a-dia de centenas de milhares de pessoas morando em regiões remotas, além de prover acesso para aviões, navios, plataformas de petróleo e pinguins.

Starlink na Antártica (Crédito: COLDEX)

Segundo Gwynne Shotwell, Presidente da SpaceX, tecnicamente a Starlink já tem fluxo de caixa positivo, mas os satélites versão 2.0, necessários para atender a demanda, são maiores, mais pesados e não são economicamente viáveis nem com o Falcon 9. Vamos precisar de um foguete maior.

Um foguete maior

A SpaceX desde o início planejava foguetes maiores. Inicialmente iriam fazer um mini-Falcon Heavy, com três Falcon 1 conectados, mas o plano foi cancelado. Quando o Falcon 9 começou a ser desenvolvido, junto veio a idéia do Falcon Heavy, em 2005, sendo que o Falcon 9 só viria a voar pela primeira vez em 2010, mesma época em que internamente a SpaceX se convencia que precisava de um foguete maior que o Falcon Heavy.

Há relatos de disputas internas, com Gwynne Shotwell tendo que defender o Falcon Heavy. Elon Musk queria cancelar o projeto e se dedicar ao tal Foguete Maior, mas Gwynne acertadamente mostrou que o desenvolvimento já estava adiantado, inclusive com vários lançamentos já vendidos.

Convencido, Elon mandou tocar adiante o desenvolvimento, e em 2018 o Falcon Heavy fez seu primeiro e espetacular lançamento, colocando em órbita solar um Tesla Roadster, usado para simular uma carga útil. Normalmente as empresas usam blocos de concreto, mas a SpaceX tem estilo.

Junto com o foguete, estavam sendo desenvolvidos os motores Raptor, extremamente potentes e ao contrário dos motores tradicionais, não usavam RP-1 (um tipo de querosene refinado), mas metano como combustível. Com fórmula CH4, metano é uma das moléculas orgânicas mais simples, um gás inflamável em temperatura ambiente, com uma queima bem mais limpa que querosene:

CH4 + 2O2 → CO2 + 2 H2O

Ao invés de um monte de fuligem, hidrocarbonos, nitróxidos e outros lixos, metano tem como resíduo de sua queima uma molécula de dióxido e carbono e duas de... água. Só perde para hidrogênio, cujo único resíduo é água, mas hidrogênio é um inferno para armazenar e manipular.

Além da facilidade de manipulação e queima limpa, e do custo bem mais baixo que RP-1, metano tem mais uma vantagem: Ele pode ser produzido em Marte, o que é essencial para os planos da SpaceX.

Mais ainda: Nem é uma tecnologia nova, foi descoberta por Paul Sabatier e Jean-Baptiste Senderens em 1897, e batizada de Reação Sabatier.

A fórmula da reação é bem simples também:

CO2 + 4H2 → CH4 + 2 H2O

Dióxido de carbono e hidrogênio, a 400 graus Célsius de temperatura e 3Megapascals de pressão, na presença de um catalizador de níquel se transformam em metano e água. Os materiais iniciais abundam no planeta vermelho. Temos uma atmosfera de mais de 90% de CO2, e água no subsolo e nas calotas polares. No inverno, dá pra recolher o gelo no chão.

O foguete que usaria esse combustível foi anunciado em 2012, seria o Mars Colonial Transporter, capacidade de carga de 100 toneladas, com 27 motores no primeiro estágio, e 10 metros de diâmetro. O Falcon 9 tem 3,7 metros de diâmetro.

Mars Colonial Transporter, no tempo em que ainda era de fibra de carbono (Crédito: SpaceX)

Em 2016, percebendo que precisavam de mais capacidade de carga e que isso geraria menos lançamentos, barateando o custo de kg/órbita, a SpaceX alterou o Mars Colonial Transport, que agora era o Interplanetary Transport System, com 122 metros de altura, 12 metros de diâmetro e peso total de 10500 toneladas. Para dar uma idéia do que é isso, um submarino nuclear classe Los Angeles tem 6000 toneladas.

Esse monstro teria capacidade de colocar 300 toneladas em órbita baixa, reutilizável, 550 toneladas descartável. O Saturno V conseguia colocar 140 toneladas em órbita baixa.

Em 2017 o ITS se tornou o BFR - Big Fuc- digo, Falcon Rocket.

Uma proposta mais modesta, com 9 metros de diâmetro e 109 metros de altura, o BFR seria feito de fibra de carbono, com os maiores tanques já construídos com esse material. A idéia era lançar o foguete da Flórida, com dois lançamentos previstos para 2022. (Spoiler: Não rolou).

A Realidade mais uma vez fez sua parte em atrapalhar um bom plano, e a SpaceX descobriu que assim como Ruby, tanques e estruturas de fibra de carbono não escalam. Depois de sucessivos testes mal-sucedidos, chutaram o pau da barraca e abandonaram a idéia. Só que voltar pra estrutura do Falcon 9, com uma liga exótica de alumínio e lítio, não era economicamente viável.

Um tanque de fibra de carbono do BFR (Crédito: SpaceX)

Depois de muito bater cabeça, a SpaceX acabou escolhendo o material mais mundano possível: Aço. Não é titânio, alumínio transparente, adamantium, cavorita, vibranium. É aço, mesmo material de uma boa chaleira.

Os tanques de combustível e oxidante foram construídos e testados à exaustão. Vários testes foram destrutivos, quando você pressuriza o tanque com nitrogênio até o limite especificado, continua até o limite estrutural, e vai adiante para ver até onde o bicho agüenta. É divertido:

Entra o Raptor

Com 33 raptors em cada Superheavy, e a SpaceX planejando lançar dezenas de foguetes por dia, é preciso uma linha de produção como nunca se viu. Hoje eles atingiram uma cadência assustadora, estão entregando um motor Raptor pro dia. A Blue Origin levou anos pra entregar dois motores Be-4 para a ULA. Restava saber se o Raptor funcionaria.

Claro, eles foram mais que estados nas instalações em McGregor, Texas, mas nas palavras do imortal Didi (o jogador, não o Dr Renato) “Treino é treino, jogo é jogo”.  O Raptor precisava voar, e como a SpaceX não tem problemas em ser tosca quando necessário, usou suas instalações em Boca Chica, Texas, para construir o Starhopper.

Composto basicamente de um tanque, um motor Raptor, três pernas e alguma instrumentação, o Starhopper parecia algo saído de McGyver, ou, mais precisamente, de Operação Resgate, uma série obscura onde um dono de ferro-velho constrói uma nave para ir até a Lua, recolher sucata deixada pela Apollo e revender na Terra.

O mais incrível é que o Starhopper voou, primeiro um vôo de 30 metros, depois um de 150. O Raptor estava validado.

Starbase

Nesse meio-tempo, a SpaceX ampliava suas instalações em Boca Chica. É surpreendentemente difícil achar um bom lugar para lançar foguetes nos EUA. Como ao contrário da China, nos EUA o governo não gosta da idéia de jogar foguetes na cabeça da população, estão restritos a áreas costeiras, na Costa Oeste ou Golfo do México, pois o foguete precisa decolar rumo ao leste, para aproveitar a rotação da Terra e ganhar mais velocidade angular, e sobre o mar para não atingir ninguém quando der defeito (no caso da SpaceX) ou o primeiro estágio for descartado (no caso de todo o resto).

Claro, achar propriedades com quilômetros e quilômetros de área livre, na praia, não é fácil. Boca Chica é um dos últimos lugares disponíveis, é uma região com várias reservas ecológicas, bem perto da fronteira do México, em uma região dominada por cartéis, então não há exatamente um grande fluxo de turistas na fronteira.

A primeira pá de terra foi escavada em 2014. Hoje a SpaceX tem na Starbase vários prédios dedicados à montagem de foguetes, a maior torre de lançamento já construída, estruturas de testes, uma fazenda de tanques e várias tendas, onde os foguetes começaram a ser construídos.

É impressionante quando há dinheiro e interesse em construir algo. Em alguns anos eles criaram um complexo espacial de lançamento e construção de espaçonaves, no meio do nada. Seria um exemplo a ser seguido, se aqui houvesse gente disposta a seguir exemplos.

Enquanto isso...

Sem querer comparar mas já comparando... (Crédito: Editoria de arte)

E a grana, de onde vem?

Boa parte da verba dos estimados US$10 bilhões do desenvolvimento da Starship vem da própria SpaceX, mas eles conseguiram outros aportes, como o bilionário japonês Yusaku Maezawa, que investiu uma fortuna no projeto, em troca da missão Dear Moon, onde ele e um grupo de artistas e influenciadores voarão em uma futura Starship, circunavegando a Lua.

Uma boa notícia veio em 2019, quando a NASA alocou US$967 milhões para o projeto preliminar do HLS – Human Landing System, o módulo que pousará na Lua e retornará astronautas ao nosso satélite, fruto do Programa Artemis.

Os três finalistas para o HLS do programa Artemis (Crédito: NASA)

O dinheiro foi dividido entre o National Team, formado pela ULA, Blue Origin e outras (US$579 milhões), a Dynetics (US$253 milhões) e a SpaceX (US$135 milhões). Os projetos propostos variavam bastante, mas a comparação chega a ser cômica. A SpaceX venceu a concorrência, com a proposta mais barata de todas, por uma longa margem, e por usar uma Starship modificada.

Com 1000m3 de espaço interno pressurizado, a Starship é um monstro, comparado com as soluções da concorrência, a ponto da NASA tentar disfarçar. Veja a diferença entre a imagem “oficial” acima dos três e a real proporção entre eles.

Err... ok. (Crédito: Reprodução Internet)

O contrato vencido pela SpaceX é de US$2,8 bilhões, mas não é um cheque em branco. A NASA agora trabalha com metas, o pagamento ocorre em partes, e somente após etapas cumpridas. Atrasos são por conta da contratada.

Enquanto isso, a SpaceX continuava a construir e testar tanques e protótipos do Super Heavy e da Starship. Alguns foram explodidos enquanto aprendiam as melhores técnicas de construir os tanques de combustível, outras foram descartadas quando se tornavam obsoletas, e em 4/8/2020 o protótipo SN5, ainda pouco mais que uma caixa d’água com um motor, fez um vôo de 150m, bem-sucedido, seguido do SN6, em 3/9/2020.

Em 20 de outubro do mesmo ano foi a vez da SN8, uma versão mais aprimorada da Starship, com três motores Raptor e flaps. Ela atingiu alguns quilômetros de altitude, desligou os motores, assumiu posição horizontal e caiu com estilo voou até o ponto onde religou os motores, voltou pra posição vertical e pousou suavemente. Por pousar suavemente eu quero dizer se espatifou, mas isso era esperado.

Fevereiro de 2021 viu o lançamento da Starship SN9, com as imagens mais lindas do programa até o lançamento de 20 de Abril de 2023. Dessa vez um dos dois motores necessários para o pouso não conseguiu ser religado, e a explosão foi linda.

A SN10 foi lançada em 3 de março, e pela primeira vez o pouso foi bem-sucedido, exceto que algum vazamento fez com que a nave explodisse alguns minutos depois, mas desenvolvimento rápido é assim mesmo.

30 de março foi quando a SN11 também se esborrachou.

Revisando o que foi aprendido com os lançamentos anteriores, e descartando vários protótipos, a SpaceX só voltaria a lançar um protótipo em 5 de maio de 2021, no caso a SN15, e essa foi a boa!

Estava comprovado que a Starship era capaz de pousar, e executar a controversa manobra de mudar de orientação na fase final do pouso, aproveitando a posição horizontal para reduzir sua velocidade durante a reentrada atmosférica.

Depois disso, a SpaceX se concentrou na construção das estruturas de lançamento em Boca Chica, como a torre, os braços gigantes que movimentam os dois estágios e os colocam na plataforma, e a plataforma em si, chamada de Estágio Zero, uma estrutura extremamente complexa e mais complicada de construir do que o foguete em si.

Parece uma banqueta, mas é uma das partes mais complicadas do complexo de lançamento (Crédito: SpaceX)

A torre em si é uma maravilha tecnológica e uma aposta da SpaceX que deixou a comunidade astronáutica coçando a cabeça.

Para economizar pelo e agilizar o tempo entre lançamentos, nem o Super Heavy nem a Starship terão pernas ou pousarão em balsas. Eles serão agarrados por braços gigantescos na torre de lançamento.

Um tal de Covid, mais problemas com licenciamento de agências reguladoras fez com que a SpaceX ficasse quase dois anos sem um lançamento da Starship, mas enquanto isso o projeto foi aprimorado, a linha de montagem dos motores Raptors atingiu a meta de entregar um por dia, e a Starship ganhou placas de proteção térmica e um dispenser de satélites. Agora era esperar os impedimentos burocráticos serem resolvidos.

Teste estático do Super Heavy (Crédito: SpaceX)

Depois de meses todas as licenças tinham sido emitidas, só faltava a licença de vôo, dada pelo FAA. A licença saiu no fim de semana de 15 de abril de 2023, e o lançamento foi marcado para o dia 17. Quase foi, mas faltando 40 segundos uma válvula presa impediu o prosseguimento.

O foguete só subiria três dias depois, dia 20.

Não que houvesse muita esperança. É tudo muito novo, a SpaceX não tinha idéia da interação entre os 33 motores Raptor, que nunca haviam sido acionados ao mesmo tempo, com potência total. O consenso era que se o foguete não explodisse imediatamente, e deixasse a plataforma de lançamento sem a destruir, o teste já seria considerado um sucesso. O resto era bônus.

Era uma aposta, como várias que a SpaceX fez. Nem todas deram certo.

Entre as que deram errado, foi a aposta de que a base de concreto da plataforma sobreviveria à potência dos 33 Raptors. Em retrospecto, foi uma aposta burra. O Super Heavy tem o dobro da potência do Saturno V, que usava uma vala de direcionamento de chamas e um imenso sistema de jatos de água para absorver a vibração causada pelo som dos motores, e evitar que o foguete e a plataforma sejam destruídos.

Base do Estágio Zero. Como direi? Deu ruim. (Crédito: Reprodução Reddit)

A SpaceX tinha um sistema básico de água instalado, e um sistema bem mais robusto já encomendado, recebido, mas ainda não instalado. Eles também planejavam usar uma base de metal com refrigeração à água, mas não tiveram tempo de terminar.

Ainda não há confirmação, mas algo, talvez danos causados durante a ignição fizeram com que dois motores parassem de funcionar, mas como o foguete tem bastante reserva de potência, e ainda estava vazio, sem carga, o bicho subiu mesmo assim. AH, se subiu!

É algo que faz um Falcon 9 parecer uma biribinha. Estamos falando de um foguete com 120 metros de altura, isso é um prédio, dos grandes. 36 andares. O edifício Martinelli, em SP, tem 109 metros. Para os cariocas (e turistas): O conjunto Super Heavy/Starship equivale à altura de 3 Cristos Redentores.

Esse monstro continuou subindo, mesmo com outros motores dando problema, num total de 6. Os atuadores hidráulicos que movimentam os motores e direcionam o foguete também apresentaram falhas, mas eles vão ser substituídos por atuadores elétricos nas novas versões, que já estão construídas.

Você vai acreditar que um arranha-céu pode voar! (Crédito: Osunpokeh / Creative Commons)

Para surpresa de muita gente, o foguete atingiu Max-Q, o ponto de mais pressão aerodinâmica, e sobreviveu.

Mais adiante, o Super Heavy começou uma manobra de rotação, que seria usada para separar a Starship. No plano que ninguém botava muita fé de dar certo na primeira vez, o Super Heavy faria uma manobra para anular sua velocidade horizontal, e simularia um pouso no mar. A Starship atingiria velocidade orbital, mas sem circularizar, então reentraria após dar a volta ao mundo, atingindo o mar perto do Hawaii.

Só que os motores fizeram falta, a manobra ocorreu a apenas 39km de altitude. O Falcon 9 realiza a manobra de separação aos 70Km de altitude.

Sem saber o que fazer, o foguete começou a dar cambalhotas, o que mostrou uma robustez fora do normal. Foram pelo menos três, antes do sistema interno OU o controle da missão acionar o sistema de autodestruição.

O Everyday Astronaut, Tim Dodd, que aliás será um dos passageiros do projeto Dear Moon, tem um vídeo com imagens incríveis do lançamento e da explosão final.

Como primeiro teste, foi além de todas as expectativas. A chance do foguete decolar sem explodir, internamente era de 50%. O aprendizado foi imenso, os engenheiros devem estar afogados em dados. Um Falcon 9 normal tem mais de 3000 canais de telemetria, o Falcon Heavy / Starship, em fase de protótipo deve ter bem mais.

Entre mortos e feridos, salvaram-se todos

A perda do foguete nem foi inesperada, a destruição na Starbase, essa sim surpreendeu. Os 33 motores Raptor atomizaram o concreto, deixando a base da plataforma só nos vergalhões, cavando um buraco gigantesco no chão. Pedaços gigantes de concreto foram atirados a centenas de metros, atingindo até o oceano.

Dezenas de câmeras foram destruídas, a fazenda de tanques da SpaceX também ficou danificada. Uma nuvem de poeira se depositou nas casas, carros e ruas a quilômetros de distância. Ficou claro que foram otimistas demais, e precisam, de alguma forma, conter os gases da decolagem.

Os pessimistas de sempre já estão dizendo que não vai dar certo, que o foguete é grande demais, que não conseguirão resolver os problemas. Você sabe, o mesmo que falaram quando a SpaceX anunciou que iria pousar foguetes.

Por enquanto a SpaceX está investigando tudo que deu errado, para aplicar esse conhecimento nos próximos vôos. Não há nenhuma informação sólida sobre novas datas de lançamento, mas segundo Bill Nelson, Administrador da NASA, a SpaceX diz que espera em dois meses ter consertado tudo e estar pronta para um novo teste.

Dará certo? Provavelmente. Eu diria que dá pra apostar na empresa que tornou falsa aquela velha máxima de que foguete não dá ré. E a reconstrução já começou.

Starship - A história do foguete mais poderoso do mundo

24 Apr 20:32

The Universe sucks: The mysterious Great Attractor that’s pulling us in

by Paul Sutter
The Universe sucks: The mysterious Great Attractor that’s pulling us in

Enlarge (credit: Aurich Lawson | Getty Images)

Our Milky Way galaxy is speeding through the emptiness of space at 600 kilometers per second, headed toward something we cannot clearly see. The focal point of that movement is the Great Attractor, the product of billions of years of cosmic evolution. But we'll never reach our destination because, in a few billion years, the accelerating force of dark energy will tear the Universe apart.

Whispers in the sky

Beginning as early as the 1970s, astronomers noticed something funny going on with the galaxies in our nearby patch of the Universe. There was the usual and expected Hubble flow, the general recession of galaxies driven by the overall expansion of the Universe. But there seemed to be some vague directionality on top of that, as if all of the galaxies near us were also heading toward the same focal point.

Astronomers debated whether this was a real effect or some artifact of Malmquist bias, the bias we get in our observations because bright galaxies are easier to observe than dim ones (for fans of statistics, it’s just another expression of a selection effect). It could be that a complete census of the nearby cosmos, including the much more numerous small and dim galaxies, would erase any apparent extra movement and return some sanity to the world.

Read 37 remaining paragraphs | Comments