Vi bygger på jättars axlar. Här är allt vi använder, refererar till eller diskuterar — öppen källkod och kommersiellt lika.
Vi bygger på Unreal Engine 5:s Hardware Lumen-pipeline som skickar ray tracing genom Microsoft DXR och behandlar det via NVIDIA OptiX™ för GPU-accelererad denoising. RTX™-hårdvara möjliggör reflektioner, skuggor och global belysning som reagerar på scenen i realtid — inte approximationer bakade vid byggtid. Varje ljus i våra miljöer förtjänar sin plats eftersom motorn har råd att beräkna det.
NVIDIA RTX Developer Docs ↗Vi levererar DLSS som en valfri kvalitetsinställning via det inbyggda Unreal Engine 5 DLSS-pluginet. Spelare med RTX™-klass hårdvara kan aktivera DLSS 3 för att återhämta bildbudget utan att offra bildkvalitet — en meningsfull fördel för spelare som vill ha våra visuella mål vid högre uppdateringsfrekvenser. Vi behandlar det som en spelarkonrollerad funktion, inte en prestandakrycka.
NVIDIA DLSS Developer Docs ↗Vi bygger för närvarande ett proof-of-concept med en enda NPC med hjälp av NVIDIA ACE:s NeMo™ (språkmodellryggrad), Riva™ (taligenkänning och -syntes) och Audio2Face™ (ansiktsanimation i realtid från ljud). Målet är en karaktär som bearbetar spelarens talade input och svarar med kontextuellt sammanhängande röst och uttryck — inga förgrenade dialoger, inga inspelade repliker. Vi publicerar våra lärdomar från denna demo innan vi åtar oss bredare integration.
NVIDIA ACE Developer Docs ↗Unreal Engine 5 levereras med Chaos som standardfysiklösare, och vi använder den för allmän simulering. Vi tar in PhysX™ 5 specifikt där determinism spelar roll — fysikberoende gameplay-system, nätverkssimulering och varje sekvens där två klienter behöver nå samma resultat från samma input. PhysX™ 5 är vårt precisionslager, inte vårt ersättning för Chaos.
NVIDIA PhysX Developer Docs ↗Vår nuvarande inferensstack körs på Ollama och llama.cpp över CUDA, vilket täcker våra lokala AI-arbetsbelastningar under utveckling. Vi utvärderar TensorRT™ som migreringsväg för latenskänslig inferens — specifikt för AI-system på spelsidan där responstiden mäts i millisekunder, inte sekunder. TensorRT™-migrering är planerad när dessa system närmar sig produktionskrav.
NVIDIA TensorRT Developer Docs ↗CUDA Toolkit är grundlagret i vår GPU-beräkningsstack — det är vad som gör vår NVIDIA-hårdvara tillgänglig för programvaran ovanför. Varje AI-inferensarbetsbelastning, fysiksimulering och renderingspipeline vi kör på GPU är beroende av CUDA. Vi bygger inte direkt mot CUDA i de flesta fall; vi bygger mot verktyg som kräver det, och därför är rätt Toolkit-konfiguration en förutsättning, inte en eftertanke.
NVIDIA CUDA Toolkit Docs ↗Vi använder Nsight™ Graphics som vårt primära GPU-prestandaverktyg för Unreal Engine 5-byggen. När en bild tar längre tid än den borde visar Nsight™ vilka draw calls, shader passes eller minnesoperationer som är ansvariga — inte vilket system vi misstänker. Det är vårt standardinstrument för optimeringsgenomgångar före varje extern milstolpe eller granskning.
NVIDIA Nsight Graphics Docs ↗Vi följer NVIDIA Omniverse™ som grund för en framtida USD-baserad tillgångspipeline — en som skulle låta våra verktyg, motorer och externa samarbetspartners arbeta från ett delat scenbeskrivningsformat istället för upprepade exporter och konverteringar. Detta är en planerad arkitektonisk riktning, inte ett nuvarande arbetsflöde. Vi integrerar Omniverse™ när pipelinen runt det är redo att stödja det.
NVIDIA Omniverse Developer Docs ↗Vi skriver ärligt om de verktyg vi använder, inklusive kommersiell programvara. Vissa verktyg här — särskilt i spelutvecklingens DCC-pipeline — är sådana vi nämner i tekniskt innehåll utan formell relation.
Om du representerar ett verktyg vi nämner och vill diskutera partnerskap, sammarknadsföring eller integration: info@monstergaming.ai