Problemi GeForce RTX 30: la risposta di NVIDIA - [NEWS]

Visualizzazione dei risultati da 1 a 5 su 5
  1. #1
    Amministratore L'avatar di giampa
    Registrato
    May 2002
    Località
    Pisa
    Età
    60
    Messaggi
    23,922

    Predefinito L'utilizzo e la disposizione di SP-CAP e MLCC varia a seconda del design e non è indice di qualità.




     1 


    La serie GeForce RTX 30 di NVIDIA è stata oggetto di polemiche sin dal lancio a causa di problematiche quali blocchi in gioco e schermate nere segnalate da un certo numero di utenti in tutto il mondo (non si sa quanti siano percentualmente in rapporto al numero di schede vendute).

    Se in un primo momento qualcuno aveva ipotizzato che tali problemi fossero imputabili all'algoritmo di boosting della GPU, più tardi si è cominciato ad ipotizzare che, forse, la causa potesse dipendere dal tipo di design implementato sul PCB da parte dei vari partner AIB.

    Dopo il polverone alzato da più parti, molte volte anche con argomentazioni e toni più che discutibili, NVIDIA ha finalmente preso una posizione ufficiale ed ha affidato la sua risposta a Brad Chacos, Senior Editor di PCWorld, che ha "testualmente" affermato:

    "Per quanto riguarda i progetti di schede dei nostri partner, questi ultimi personalizzano regolarmente i loro progetti e lavoriamo a stretto contatto con loro durante il processo di progettazione e test. Il numero appropriato di raggruppamenti SP-CAP e MLCC può variare a seconda del design e non è necessariamente indicativo della qualità."

    NVIDIA, quindi, fornisce le specifiche di riferimento che i partner AIB devono seguire e dà loro alcune linee guida per la progettazione di schede personalizzate, inclusi ovviamente i limiti definiti per tensioni, potenza e velocità di clock.

    NVIDIA prosegue dicendo che non esiste un raggruppamento SP-CAP/MLCC specifico che può essere definito per tutte le schede poiché i design AIB variano l'uno rispetto all'altro.

    Come se non bastasse, NVIDIA afferma anche che il numero di raggruppamenti SP-CAP/MLCC non è indice di qualità.

    Ci sono state "analisi indipendenti" le quali suggeriscono che usare MLCC è la strada da percorrere per le schede AIB in quanto, teoricamente, offrono maggiore stabilità, ma NVIDIA non conferma questa tesi, anzi ...


     2 


    La discussione è iniziata quando Igor's Lab ha pubblicato un suo rapporto tecnico in cui si ipotizzava che una possibile ragione dietro i problemi che gli utenti stavano affrontando fosse da ascrivere, una volta toccata una frequenza di boost pari a 2GHz, all'uso di un layout SP-CAP (Conductive Polymer Tantalum Solid Capacitors) completo, piuttosto che una combinazione tra SP-CAP e MLCC o, addirittura, un intero design basato su questi ultimi.

    Per quanto concerne la differenza in pillole tra i condensatori oggetto della contesa, ricordiamo che gli SP-CAP sono peggiori alle alte frequenze, parliamo di frequenza dell'alimentazione e non del segnale dati (clock GPU), ma meccanicamente ed elettricamente più resistenti degli MLCC.

    A seguito di quanto successo, alcuni produttori (ma non GIGABYTE che ha ribadito la qualità del suo design basato su SP-CAP), probabilmente presi dal panico, hanno cominciato a rilasciare dichiarazioni circa la possibilità di cambiare design una volta riprodotte tale problematiche, alcuni aggiornando le pagine ufficiali delle proprie schede con immagini raffiguranti una diversa disposizione ed utilizzo dei condensatori.




    A ridimensionare fortemente la caccia alle streghe scatenata dai soliti "rosiconi", per lo più gente che sarà costretta a comprarsele le schede e non professionisti del settore, ci ha pensato il solito mitico der8auer, saldatore alla mano.



    Ieri sono usciti i nuovi driver GeForce 456.55 WHQL che sembrano risolvere il problema (a fronte, comunque, di un leggero taglio delle frequenze di boost) e, anche se NVIDIA non ha dichiarato nulla a riguardo nel relativo changelog, sta di fatto che il nostro Manuel, con la sua ZOTAC GeForce RTX 3090 Trinity (che monta solo SP-CAP), ha toccato quota 2130MHz sulla GPU ad aria conquistando il 10° posto mondiale in 3DMark Fire Strike.


     3 


    Ma le ZOTAC Trinity non erano i modelli peggiori da rispedire al mittente ?




    Allegati:
    Fonte: Wccftech




    "Scusate, ma se quest'anno in Texas ci avete spedito questo deficiente, vuol dire che c'è speranza per tutti?"

  2. #2
    Super Moderatore L'avatar di xXBladeXx
    Registrato
    Nov 2018
    Località
    Teramo
    Età
    34
    Messaggi
    105
    configurazione

    Predefinito

    Si chiude la caccia alle streghe

  3. #3
    gibibyte L'avatar di The Punisher
    Registrato
    Nov 2015
    Età
    58
    Messaggi
    1,020

    Predefinito

    come volevasi dimostrare, la mamma degli imbecilli è sempre incinta

  4. #4
    Moderatore L'avatar di YGCasemod
    Registrato
    Jun 2016
    Età
    54
    Messaggi
    706

    Predefinito

    E' stata una battaglia assurda anche nel gruppo.
    Si son sentite una marea di stupidaggini che non ne avete idea.
    Addirittura come controprova dei video di Youtuber scapestrati che hanno fatto della loro incompetenza e ignoranza una professione e che non avevano la benchè minima idea di cosa stesse succedendo e di cosa si stesse parlando.



  5. #5
    mebibyte L'avatar di mochette
    Registrato
    Jan 2009
    Età
    49
    Messaggi
    717
    configurazione

    Predefinito

    io possiedo la 3090 trinity oc
    che arriva di default a 1960 mhz in bost
    con alcuni giochi nessun problema con altri che spingono molto avevo crash al destop errori hardware schermate blu
    i driver sono i penultimi
    ebbene ho risolto(almeno spero)abbassando di 60 hz la frequenza della gpu

Informazioni Thread

Users Browsing this Thread

Ci sono attualmente 1 utenti che stanno visualizzando questa discussione. (0 utenti e 1 ospiti)

Tags

Regole d'invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
nexthardware.com - © 2002-2022