di  -  giovedì 16 luglio 2009

Il logo di Windows 7So già che il titolo di questo post sul blog di Appunti Digitali può sembrare provocatorio. Del resto quando si parla di sistemi operativi Microsoft, anche se in realtà tale discorso è applicabile a molti altri contesti, è molto facile farsi trascinare da ciò che potrebbe essere definito tifo, ma che io preferisco chiamare passione per l’informatica, e lanciarsi nei cosiddetti flames.

Windows 7 è alle porte, la RTM (Release To Manufacturing), cioè essenzialmente la versione finale, è attesa nel giro di pochi giorni o al più settimane, e l’idea che ho personalmente avvertito nel mare delle opinioni e delle discussioni che alimentano quotidianamente internet è che Windows 7 sia considerato migliore del suo predecessore Windows Vista.

In realtà molto è stato e ci sarebbe da discutere sulla cattiva nomea che quest’ultimo si è ritagliato in quanto diverse accuse risultano essere a mio modo di vedere ingiuste nei confronti di questo sistema operativo.

Indubbiamente Windows Vista, introducendo un kernel rinnovato, un nuovo driver model ed un diverso approccio alla sicurezza, ha rotto la compatibilità con moltissime applicazioni e dispositivi hardware al punto da costringere chi voleva fare l’update da Windows XP ad effettuare modifiche hardware e software, aspetto che non ha di certo fatto la felicità di tutti i consumatori, ma che era inevitabile.

Pensare, infatti, che da Windows XP in poi, datato 2001, non si sarebbe dovuto modificare niente delle componenti a basso livello di Windows in nome della retro compatibilità è bizzarro. Dal 2001 al 2006, infatti, di passi in avanti l’informatica ne ha compiuti parecchi: i processori a più core non esistevano, internet non era diffusa ed utilizzata come oggi, i video non avevano ancora abbracciato lo streaming e l’alta definizione e le applicazioni richiedevano quantitativi di memoria più modesti.

Windows XP, benché in termini di stabilità sia stato un immenso passo in avanti rispetto ai vecchi sistemi Windows 9x/ME, nel corso degli anni ha mostrato i limiti della sua anzianità e, in tal senso, le gravissime falle di sicurezza sfruttate dai worm Blaster e Sasser, così come l’incapacità di accelerare in hardware l’interfaccia grafica sfruttando le sempre più evolute GPU, ne sono solo alcuni esempi. In fin dei conti da sempre l’evoluzione dei personal computer ha portato a dover rinnovare il proprio hardware e software e, benché qualcuno possa essere stanco di questa prospettiva, non si può di certo pretendere l’immobilismo tecnologico in nome del risparmio economico.

Chiusa questa parentesi su Windows Vista, essendo questa la rubrica dedicata al “Multimedia e d’intorni”, è mia intenzione approfondire alcune novità di Windows 7 che lo renderanno effettivamente migliore di Windows Vista, almeno per quanto concerne la gestione dell’interfaccia grafica e della memoria.

La precedente implementazione delle GDI

Nel corso dello sviluppo di Windows 7, gli ingegneri di Microsoft hanno analizzato molti dei casi che portano Windows Vista e i suoi predecessori ad una gestione dell’interfaccia grafica non ottimale, al punto da compromettere la prontezza di risposta dell’interfaccia stessa. Quante volte vi sarà capitato di avere in esecuzione due o più applicazioni e che, a causa del blocco di una, l’intera interfaccia grafica del sistema operativo non risponda?

Naturalmente il blocco dell’applicazione non è imputabile a Windows, ma il fatto che l’interfaccia grafica smetta di rispondere sì, ed è proprio in questa direzione che è stato svolto un grosso lavoro di reingegnerizzazione dello stack GDI. Le GDI (Graphics Device Interface) sono le API di Windows che espongono tutte le funzionalità utili al disegno dell’interfaccia grafica e, se escludiamo casi particolari come la riproduzione video o l’accelerazione della grafica 3D, queste vengono utilizzate in tutte le applicazioni. Anche il browser attraverso il quale state leggendo questo post non fa altro che inviare al sistema operativo attraverso le GDI i dati necessari al rendering della pagina web.

La nuova implementazione delle GDI

Il problema riscontrato dagli sviluppatori di Microsoft è che nell’implementazione di Windows Vista e dei suoi predecessori, solo un’applicazione alla volta può effettuare chiamate all’API GDI per disegnare la propria interfaccia grafica.

Questo modo di gestire la condivisione e la sincronizzazione delle risorse grafiche del sistema operativo lo rende vulnerabile ad alcuni casi in cui un’applicazione acquisisce il diritto di chiamata alle GDI, ma non lo rilascia perché allo stesso tempo sta eseguendo un’altra lunga operazione (oppure si è bloccata).

In questo caso, nessun’altra applicazione potrà utilizzare le GDI fino a quando l’applicazione bloccante non ha completato le sue attività o, in caso di blocco, non viene terminata forzatamente. La soluzione a questo problema è stata la riscrittura del sistema di sincronizzazione delle chiamate all’API GDI che in Windows 7 permette a più applicazioni di condividerne le risorse. Particolare vantaggio, inoltre, ne potranno trarre i sistemi con processore multi-core perché in questo caso il sistema operativo potrà effettivamente gestire con maggiore efficienza più thread in parallelo che chiamano le GDI.

Il collo di bottiglia rappresentato dalla precedente gestione della concorrenza tra le chiamate GDI è stato, quindi, spostato dal sistema operativo allo scheduler della scheda video, il che consente a Windows 7 di essere limitato in questa particolare circostanza solo dall’implementazione hardware e software di quest’ultima.

Windows Display Driver Model 1.0

Un altro elemento sul quale i programmatori Microsoft hanno posto particolare attenzione è l’occupazione della memoria dovuta all’interfaccia grafica. Windows Vista ha introdotto il Desktop Window Manager (DWM), la componente responsabile del disegno del desktop. Grazie a questa è stato possibile accelerare in hardware la gestione delle finestre dell’interfaccia grafica, funzionalità che ha reso possibili gli effetti di trasparenza e opacità tipiche del tema Windows Aero.

Ciò che tuttavia Windows Vista non può fare è accelerare in hardware il rendering dell’interfaccia grafica delle singole finestre, perché queste il più delle volte sono disegnate attraverso le GDI, API che, come abbiamo visto in precedenza, sono gestite interamente dalla CPU. Quando un’applicazione disegna la propria interfaccia grafica attraverso le GDI, la CPU esegue tutte le operazioni sulla memoria RAM di sistema.

Trattandosi di informazioni che devono essere utilizzate dalla scheda video per il rendering dell’interfaccia, una copia di questi dati viene copiata anche nella memoria video. Il risultato è che per ogni finestra visualizzata sul monitor, Windows Vista ne conserva una copia in memoria RAM ed una copia nella memoria della scheda video, comportando un impatto sull’occupazione complessiva della memoria che può diventare rilevante se il monitor ha una risoluzione elevata e/o se il computer è dotato di più monitor.

Windows Display Driver Model 1.1

La soluzione a questo spreco di memoria è stata implementata in Windows 7 con l’ausilio di un nuovo driver model per le schede video: il Windows Display Driver 1.1 (WDDM 1.1). Rispetto alla versione 1.0 presente in Windows Vista, questo driver model accelera in hardware tutte le più comuni operazioni delle GDI, riuscendo quindi a scrivere direttamente nella memoria della scheda video, senza richiedere la copia delle stesse informazioni nella memoria RAM di sistema.

Alcuni test condotti internamente da Microsoft dimostrano che contrariamente al comportamento che si ottiene con la versione 1.0, il WDDM 1.1 mantiene costante l’occupazione della memoria di sistema all’aumentare del numero di finestre aperte.

I vantaggi del Windows Display Driver Model 1.1

Naturalmente per poter beneficiare di questa nuova funzionalità è necessario ottenere dal produttore del processore grafico della propria scheda video, driver compatibili con il driver model WDDM 1.1. In caso contrario il comportamento di Windows 7 sarà analogo a quello di Windows Vista.

96 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    cla
     scrive: 

    A leggere il titolo mi viene in mente la pubblicita’ del gratta e vinci: “Ti piace vincere facile” :D

  • # 2
    filippo1974
     scrive: 

    Una puntualizzazione credo sia opportuna: quando si dice nell’articolo (riferendosi a Windows XP)

    “così come l’incapacità di accelerare in hardware l’interfaccia grafica sfruttando le sempre più evolute GPU”

    ritengo sia giusto puntualizzare: l’accelerazione dell’interfaccia grafica è ben presente (come lo era anche in Windows 2000 e anche nei sistemi Windows 9x) solamente che a differenza di Vista e Win 7 è 2D, non è basata su DirectX, e non utilizza il double buffering (col risultato che muovendo le finestre, soprattutto se è abilitata l’opzione per la visualizzazione del contenuto della finestra durante il trascinamento, è ben visibile il “seghettamento” -tearing-).

    Altrimenti, la frase potrebbe essere letta in modo “fuorviante”, nel senso che si potrebbe ritenere che prima dell’avvento di Vista la scheda video non fosse in alcun modo implicata nella visualizzazione della GUI di Windows. Per capire quanto importante sia l’accelerazione 2D in Win XP, basta andare nelle opzioni dello schermo e trascinare tutto a sinistra lo slider “accelerazione hardware” della scheda “risoluzione problemi”, e godersi lo spettacolo delle finestre che ci mettono i minuti a ridisegnarsi :D :D

    Ciao
    Filippo

  • # 3
    Windows 7 - discussione ufficiale - Pagina 545 - Forum di Tom's Hardware Italia
     scrive: 

    [...] di Windows 7: il nuovo stack gdi+ e le direct2d e la gestione della memoria. lo trovate qui: Windows 7 sar

  • # 4
    attaboy
     scrive: 

    prima di tt… 1° post su questo sito che cmq seguo da qualche mese… ragazzi amo i vosti articoli.
    ad ogni modo c’è una questione non considerata riguardo l’ambito grafico: vista e 7 NON supportano nativamente opengl!!! l’accelerezione c’è ma avviene in emulazione su directx…
    sono solo io a trovare frustrante la cosa?

  • # 5
    filippo1974
     scrive: 

    @ attaboy

    Sei sicuro di questo? Utilizzo spesso sotto Vista un simulatore di volo (X-Plane) che è basato su OpenGL, ma passando da XP a Vista non ho notato nessun peggioramento tangibile di performances. Se OpenGL fosse emulato tramite un wrapper, mi aspetterei una differenza prestazionale visibile. Oppure questo wrapper è fatto così bene da non farmi notare differenze. In ogni caso le prestazioni per me sono ampiamente soddisfacenti, per cui se anche ci fosse una conversione OpenGL -> Direct3D di mezzo… pazienza!

    Ciao
    Filippo

  • # 6
    Banjo
     scrive: 

    Mi raccomando, compratelo tutti a 64 bit!!!
    Non se ne può più dei 32 bit

  • # 7
    attaboy
     scrive: 

    @filippo1974
    abbastaza sicuro… almeno sul mio hardware. se guardo i driver opengl non sono della mia scheda video ma sono driver di windows. le prestazioni non peggiorano gran chè, ma cmq con hw datato si nota. un esempio su tutti: quake3 / quake live sul mio portatile son quasi ingiocabili sulla rc di 7 e su vista, mentre vanno perfettamente su xp o su ubuntu (su ubuntu ovviamente va solo quake 3)

  • # 8
    WP
     scrive: 

    @attaboy

    Ti sbagli. Sei hai problemi di prestazione OpenGL prova a scaricare i driver sul sito nVidia/ATI.

    http://www.opengl.org/pipeline/article/vol003_9/

  • # 9
    EnricoG
     scrive: 

    @filippo1974 (#2)
    ottima precisazione. Aggiungo solo che in XP quello che e’ 3D e’ un “buco nero” per il window manager, che lascia all’applicazione l’onere di gestire la cosa.
    Chiaramente il modello di gestione grafica di Windows 7 e’ superiore a quello di XP su tutti i campi, sia 2D che 3D. Per non parlare poi dei font che su Windows 7 sono semplicemente spettacolari e inarrivabili da qualunque altra piattaforma.

  • # 10
    filippo1974
     scrive: 

    @Banjo

    Raccomandazione sacrosanta, ma (spero) ormai superflua, dato che con la dotazione di RAM dei nuovi PC, quella dei 64 bit è ormai una strada obbligata (a meno di masochisti che installano 4 GB nel computer per vedersene disponibili 3 :D ).

  • # 11
    Windows 7 sarà migliore di Vista – Appunti Digitali
     scrive: 

    [...] approfondire consulta la fonte:  Windows 7 sarà migliore di Vista – Appunti Digitali Articoli correlati: Anche la scheda madre dissipa calore? – Appunti [...]

  • # 12
    Raffaele Fanizzi (Autore del post)
     scrive: 

    Confermo che non ci sono problemi intrinseci di Windows 7 con OpenGL. Se qualcosa non funziona è solo perché ATI e NVIDIA devono rilasciare driver maturi al riguardo. L’emulazione di cui parli tu è quella del driver software di OpenGL per Windows 7, che però non è un grosso problema se consideriamo che chiunque ormai installa i driver della scheda video.

  • # 13
    Valentino
     scrive: 

    Bè da criticare in vista ce n’è e probabilmente ce ne sara parecchio anche nel 7!
    Prima di tutto viene difficile dire che era inevitabile che vista rompesse con il passato, dato che tutto il monopolio microsoft si basa sulla compatibilita con il software già venduto. Altrimenti se ad ogni nuova uscita bisognasse ricomprare tutto il sw non ci sarebbero grandi problemi a cambiare os! Insomma la principale caratteristica di fidelizzazione di windows è la compatibilità con il software lagacy commerciale. Problema che non si presenta con i sistemi open source.
    Altro difetto rilevante al debutto era il supporto a opengl che passava per un wrapper abbastanza penoso. Poi risolto circa un anno dopo se non sbaglio.
    Caratteristica che mi aveva ingolosito poi era l’ucm; mi sono detto finalmente un sistema decente per la gestione dei permessi su windows. Invece, nonostante i miglioramenti rispetto a xp, sono rimasto deluso ( possibile che per diventare amministratore basta premere si??). Sembra solo aver voluto scimmiottare i sistemi *nix.
    Le utility di defrag e di backup automatico poi sono decisamente penose.
    Inoltre si nota ancor più una mancanza di duttilità del sistema che più difficilmente di un sistema linux può essere modellato sulle esigenze dell’utente ( ma questo forse è un problema solo mio ).
    Difetto gravissimo poi, che nessuno sembra aver notato, è la quantita vergognosa di spazio occupato su disco: possibile che un istallazione a 64 bit occupi 18gb (riferito alla cartella win con bk disabilitato)? A mio parere lo spazio richiesto è davvero eccessivo! Un istallazione linux mi occupa meno di 5 gb con tutti i software di produttivita personale che uso e anche qualcuno che tengo li solo per tenerlo!
    Per carita cmq il passo avanti rispetto a xp è evidente ed enorme per quanto rigurada la stabilita e l’usabilità dell’interfaccia. Si sono fatti anche passi avanti riguardo alla sicurezza ed ha una gestione più moderna del carico di lavoro. Però deve fare ancora parecchi passi avanti per quanto mi riguarda. bye

  • # 14
    TheFoggy
     scrive: 

    @Valentino: vero..il wrapper iniziale era un po’ scarso, ma ora le cose son migliorate. Anche se crea qualche problema col software autoprodotto (fa casino con alcune normali se impostate a mano, ma oramai non lo fa più nessuno, quindi è trascurabile). Il rompere col passato era sì necessario! E, sotto questo aspetto, anche XP ha creato qualche grattacapo agli albori (forse anche più di Vista). L’hardware si è evoluto, e non era assolutamente più possibile lasciare l’HAL così com’era..necessitava di una svecchiata. Svecchiata che ha reso incompatibile molto HW (la colpa è di ms che evolve, o di chi fa i driver e dorme? Come Creative, tanto per non fare nomi..). Vista aveva il problema della copia dei file via rete..impiegava più tempo a calcolare il “tempo residuo stimato” che tutti il resto! E l’SP1 ha risolto il problema.
    Per quanto riguarda l’UAC, invece..il “semplice premere sì”, deriva dal fatto che utilizzi un account amministratore! Se ne usi uno “utente” normale, ad ogni cambio di privilegi, ti viene richiesta la password di admin! Insomma..è come se in linux ti loggassi come root! Senza considerare che ci si lamentava perchè non c’era un sistema *nix-like, e ora che c’è, la maggior parte di quegli utenti (che già erano un pochino più smaliziati degli altri) lo disabilitano..

    Ti do ragione, invece, sull’occupazione del disco.. Giustifico un pochino di spazio in più per i dirver di default (win è molto più PnP di linux..da qualche parte quei driver saranno!), ma non 10Gb in più..

    Detto questo..sul mio vecchio portatile (centrino Duo t2300), uso Seven e..va davvero bene. Meglio di Vista, che già, tutto sommato, non mi girava così male..

  • # 15
    WP
     scrive: 

    In Windows Vista, OpenGL ha sempre funzionato bene. Forse inizialmente i driver non erano maturi, soprattutto quelli di nVidia, ma non lo erano nemmeno quelli per DirectX. Di fatto, nel sistema operativo, non c’è mai stato nulla che impedisse ai produttori di schede video di supportare pienamente OpenGL.

    Per quanto riguarda lo spazio su disco, non lo vedo come un grosso problema sinceramente. Ci sono molti più drivers inclusi di quanti ve ne fossero in XP e per attivare i componenti di Windows non occorre più andare a ripescare il CD di installazione come si faceva con XP e precedenti. La versione a 64 bit occupa più spazio perchè deve mantenere due copie delle librerie, una per le applicazioni a 64 bit e una per quelle a 32 bit.

  • # 16
    Valentino
     scrive: 

    @TheFoggy: be era solo per mettere in evidenza il fatto che la compatibilita con parte del sw già venduto sia uno dei nodi cardine del modello di business microsoft! Per il resto si alla fine ha fatto il meglio che poteva per innovare e mantenere la compatibilità.
    Sbagli invece sui driver paradossalmente linux supporta più periferiche di windows in maniera PnP: la cosa, su windows, si nota poco dato che tutti i produttori hw danno un ottimo supporto all’os di microsoft, al contrario su linux se non viene riconosciuta una periferica in modo PnP ci può essere più di qualche problema a reperire il driver ed a installarlo.
    Per farti un esempio quando installi ex novo win devi installare i driver della ethernet e della scheda audio, per queste periferiche su linux e improbabile che andrai mai ad installare i driver (di solito le periferiche più rognose sono le schede video e le wireless; poi cambia da marca a marca il supporto).
    bye

  • # 17
    pabloski
     scrive: 

    oddio non è che ci voglia poi molto per essere migliori di vista :D

    comunque sia hanno fatto interessanti aggiustamenti, anche se non è poi tutto questo granchè…precisamente non ci sono innovazioni ma solo applicazioni di concetti venuti da altre piattaforme e che ms per anni ha snobbato non si sa perchè

    riguardo i font, beh dai un’occhiata a liberation o deja vu

  • # 18
    pabloski
     scrive: 

    @valentino:

    hai ragione, linux ha un ottimo sistema di riconoscimento delle periferiche e una migliore implementazione del plug and play

    tant’è che ubuntu sfruttando la cosa ha realizzato un meccanismo di configurazione mac-like, cioè totalmente trasparente all’utente finale

    e sono d’accordo sul fatto che il problema di linux sono i driver mal fatti ( soprattutto certi driver noti come catalyst :D )

    ho notato che in molti commenti si dà la colpa ai driver, peccato che molti winari non siano altrettano intellettualmente onesti riguardo linux….insomma se non va su windows è colpa del driver, se non su linux è perchè linux fa schifo

    beh comunque linux sta crescendo molto bene e ormai è raro trovare hardware che sia assolutamente inutilizzabile

  • # 19
    Dove 7 migliora Vista. « Tecnologia e non solo
     scrive: 

    [...] Dove 7 migliora Vista. Archiviato in: Edicola — telperion @ 7:46 pm Vi consiglio la lettura di questo ottimo articolo. Windows 7 sarà migliore di Vista [...]

  • # 20
    Alessandro
     scrive: 

    Se non volete tutte queste paranoie…Fatevi un Mac e il problema è risolto!! :) Da quando sono passato al Mac non ho piu alcun problema….grafica al massimo,nessun rallentamento con tutte le applicazioni aperte,nessun blocco…provare per credere!

  • # 21
    Cesare Di Mauro
     scrive: 

    Se non vi piacciono i Catalyst, i driver di qualità sviluppateveli da soli, visto che DA TEMPO Ati/AMD ha rilasciato tutte le specifiche al gran completo per realizzarli.

    Visto che la comunità open source non desidera altro, vedremo finalmente se alle parole seguirano i fatti, ma non vorrei arrivare a portare in giro i nipotini prima di vederne all’altezza di quelli closed…

    Per quanto riguarda le OpenGL, il supporto di Vista è di gran lunga superiore a quello fornito da XP, dove praticamente era nullo (era il produttore della scheda a fornire l’ICD, altrimenti ciccia).
    Almeno adesso è Windows stesso a fornire un discreto layer d’emulazione di default per le OpenGL.

  • # 22
    mede
     scrive: 

    semmai la notizia sarebbe che Seven non sarà peggiore di Vista…

    non ho resistito scusate, non ho niente contro Vista

  • # 23
    pabloski
     scrive: 

    i driver open dovrebbero essere usabili entro 6 mesi http://www.phoronix.com/scan.php?page=news_item&px=NzM4Mg

    fanno progressi almeno e il driver radeon è stato riscritto da zero….ovviamente entrerà nel kernel pure il driver per il kms per le radeon

  • # 24
    Deskmat
     scrive: 

    A questo punto mi chiedo se le ultime versione di drivers nVidia supportino nativamente il WDDM 1.1, qualcuno ne sa qualcosa?

  • # 25
    D
     scrive: 

    @Cesare Di Mauro

    “ma non vorrei arrivare a portare in giro i nipotini prima di vederne all’altezza di quelli closed…”

    Con i tempi e l’organizzazione che regnano in quei lidi c’è il rischio che saranno i nipotini a portare in giro te…

  • # 26
    Cesare Di Mauro
     scrive: 

    Non è un caso che io abbia parlato di driver “di qualità”, cosa ben diversa da driver “usabile”.

    I driver “usabili” esistono fin dal day 1: basta usare una scheda grafica in modalità framebuffer, dimenticandosi delle centinaia di milioni di transistor dedicati all’accelerazione hardware.

    Tra l’altro se si arriverà in tempi decenti a qualcosa di usabile è soltanto perché al progetto sta lavorando anche gente di Novell e di AMD.

    Purtroppo la comunità open source, che tanto pomposamente dichiara che gli basta avere soltanto le specifiche per farsi i driver da sé (perché il concetto è quello di non dover dipendere da nessuno; in particolar modo dalle odiate multinazionali… di cui però comprano i prodotti, anziché farsi in casa pure quelli), non ha ancora capito che una scheda video di oggi ha una complessità tale da non essere assolutamente paragonabile ai giocattolini del passato, dove chiunque dotato di un minimo di skill davanti all’elenco dei registri della VGA poteva smanettare e tirare fuori velocemente qualcosa di decente.

    Oggi bisogna essere umili e rendersi conto che è meglio chiedere aiuto anziché combattere una battaglia persa in partenza. Perché il lavoro di personale altamente qualificato vale 100 volte di più di quello di gente che è convinta che basta mettersi davanti alla tastiera per essere “il re del mondo” e poter fare qualunque cosa.

    Certo, magari riesce pure a tirare fuori qualcosa di decente per la sua scheda video con shader model 3, quando però nel frattempo gli altri si stanno godendo da tempo le loro schede SM 10…

  • # 27
    Filippo1974
     scrive: 

    @ Cesare Di Mauro:

    “magari riesce pure a tirare fuori qualcosa di decente per la sua scheda video con shader model 3, quando però nel frattempo gli altri si stanno godendo da tempo le loro schede SM 10″

    Butto lì una provocazione.

    Probabilmente all’epoca in cui dovrebbero uscire gli SM10, le schede video come le intendiamo oggi non esisteranno più e il PC (se ancora avrà un senso spingere sull’elaborazione in locale, vedi Google Chrome OS) sarà un ammasso di CPU variamente concepite, nelle quali gireranno motori grafici sviluppati in proprio dalle software house attraverso API tipo OpenCL. Sono già alcuni mesi che da più parti sento parlare di usare le risorse computazionali delle GPU per scavalcare a piè pari le varie DirectX / OpenGL (che, in vario modo, ti legano ad una pipeline grafica abbastanza “pre-confezionata”) ed eseguire un motore grafico totalmente “home-made”. Credo che anche il progetto Larrabee vada tutto sommato in questa direzione.

    A quel punto forse anche la comunità open source potrebbe avere vita più facile?

  • # 28
    Cesare Di Mauro
     scrive: 

    Dubito che fra un po’ di anni vedremo la scomparsa delle GPU.

    Anche se si tende sempre di più a una generalizzazione del loro hardware (e, per contro, a una specializzazione delle CPU, orientata al multimedia e, quindi, inevitabilmente anche alla grafica), sono comunque dei componenti che riescono a eseguire questo tipo di compiti molto meglio rispetto a qualunque CPU.

    Per questo non credo che Larrabee avrà mai successo, se usata come GPU: per fare le stesse cose richiede MOLTI più transistor.

    E per lo stesso motivo non credo che in futuro le cose siano così radicalmente diverse da oggi: servirà sempre del codice specifico per sfruttare determinate componenti “specializzate”, che tra l’altro saranno sempre più complesse.

    Ciò richiederà, ovviamente, personale altamente specializzato. Con buona pace di chi pensa di poter fare tutto in casa (se non in tempi biblici).

  • # 29
    Emanuele Rampichini
     scrive: 

    Se non vi piacciono i Catalyst, i driver di qualità sviluppateveli da soli, visto che DA TEMPO Ati/AMD ha rilasciato tutte le specifiche al gran completo per realizzarli.

    Visto che la comunità open source non desidera altro, vedremo finalmente se alle parole seguirano i fatti, ma non vorrei arrivare a portare in giro i nipotini prima di vederne all’altezza di quelli closed…

    Purtroppo la comunità open source, che tanto pomposamente dichiara che gli basta avere soltanto le specifiche per farsi i driver da sé (perché il concetto è quello di non dover dipendere da nessuno; in particolar modo dalle odiate multinazionali… di cui però comprano i prodotti, anziché farsi in casa pure quelli), non ha ancora capito che una scheda video di oggi ha una complessità tale da non essere assolutamente paragonabile ai giocattolini del passato, dove chiunque dotato di un minimo di skill davanti all’elenco dei registri della VGA poteva smanettare e tirare fuori velocemente qualcosa di decente.

    Certo, magari riesce pure a tirare fuori qualcosa di decente per la sua scheda video con shader model 3, quando però nel frattempo gli altri si stanno godendo da tempo le loro schede SM 10…

    Ciò richiederà, ovviamente, personale altamente specializzato. Con buona pace di chi pensa di poter fare tutto in casa (se non in tempi biblici).

    @Cesare Di Mauro
    Sinceramente non capisco questo tuo accanimento.Le tue idee a riguardo (legittime e ben argomentate) sono state esplicate in altri articoli. Perchè ad ogni post bisogna tirare fuori la comunità e le sue presunte o esistenti magagne?
    E soprattutto è stato solo detto che i driver closed Catalyst fanno pena e questo è sotto gli occhi di tutti. Nessuno si è sognato di dire “li scrivo io in una notte con gli occhi chiusi ed una mano legata”.

    Detto questo ho trovato molto interessante e ben fatto l’articolo. Grazie.

  • # 30
    Valentino
     scrive: 

    @Cesare Di Mauro
    Be per quanto riguarda la qualità del driver probabilmente hai ragione soprattutto per quanto riguarda quelli delle schede video. Su windows sono decisamenti migliori con un livello di confugurabbilità accelso, sempre veloci e aggiornati.
    D’altro canto non si puo dire “sviluppateveli da soli” dato che anche chi usa gnu/linux paga l’hw e avrebbe diritto a un suppoto accettabile.
    E non è vero che la comunità open source non desidera altro che svilupparsi i driver da soli. Non è piacevole per chi compra una periferica appena uscita vedere che viene supportata dopo 6 mesi un anno su linux (capita con le schede nvidia)! Come è capitato in kde4 a circa un anno dall’uscita del DE ancora ci possono essere delle incompatipilita con i driver ufficiali e ci sono problemi per disegnare le finestre dell’interfaccia grafica. Su windows mensilmente viene ottimizato per l’ultimo gioco uscito il driver! Su linux i driver prodotti dalle case a volte non possono nemmeno sfruttare l’accelerazione hdmi! Adesso non si chiede che ci sia questa velocità e puntualita nel supporto come su windows ma almeno un supporto che non faccia rimpiangere di aver comprato un dato prodotto.
    Il progrogramma che citi tu cioè quello dateci le specifiche e il driver lo sviluppiamo noi non è rivolto certo ai driver video ma a tutto il marasma di periferiche più semplici che si puo collegare al pc. Queste sono fatte da produttori minori, che non hanno certo il mercato di ati/nvidia, che vendono prodotti da poche decine di euro.
    Inoltre i catalyst da quando si sono aperti con il supporto della comunita sono cresciuti molto tanto da non sofrire più rispetto la controparte linux nvidia. Anzi si è parlato tempo fa dell’attivazione dell’hdmi e di inclusione nel kernel per questi driver.
    Poi questa “Perché il lavoro di personale altamente qualificato vale 100 volte di più di quello di gente che è convinta che basta mettersi davanti alla tastiera per essere “il re del mondo” e poter fare qualunque cosa.” mi sembra un affermazione mi sembra eccessiva: Linux è fatto da una comunità di professionisti e non si ragazzini che si mette davanti al pc convinta di sapaccare il mondo! Anche perche se fosse cosi linux non sarebbe su molti dei supercomputer fatti da migliaia di processori dei centri di ricerca! Non si avrebbe il web server apache come standard de facto, per non parlare della moltitudine di application server, compilatori e rdbms e ide sviluppati in seno al progetto linux e rilasciati con licenze open! Ovviamente la comunita a reso tutto disponibile anche su windows!
    Mi viene difficile capire come alcuni riescono ad essere tanto avversi a prodotti di qualità cosi elevata che possono sfruttare in maniera gratuita! Certo fare di un software una religione è sempre sbagliato (sono ateo e non smetto di adorare un dio per adorarne un altro)!
    A mio modo di vedere il SO è semplicemente uno strumento e uso quello più adatto a quello che devo fare: sul pc dove gioco ho vista 64bit, sul portatile dove studio ho xp e kubuntu ma uso quasi esclusivamente kubuntu, sul server p2p ho una debian stable!
    bye

  • # 31
    zephyr83
     scrive: 

    Quoto quanto scritto da Emanuele Rampichini….allora nn sn l’unico a pensare che Cesare si accanisce contro l’open souce! Cmq meglio fare qualche precisazione: NON è vero che AMD ha rilasciato le specifiche DA TEMPO! Anzi le ha rilasciate da poco e inizialmente solo per vecchie archtietture e solo per la parte relativa al 2D. Per il 3D le specifiche nn sn disponibili da molto, inoltre vengono inizialmetne rilasciate sotto NDA e ci lavorano solo quelli di novell e redhat se nn sbaglio, che “bonificano” la documentazione relative alle parti coperte da brevetto che nn riguardano direttamente (o solo) ati/amd. POI i driver arrivano anche alla comunità in maniera totalmente open source. Quindi tutto sto tempo avuto a disposizione nn lo vedo! Però la cosa CERTA è che prima che AMD rilasciasse le specifiche i driver open per il 2D c’erano e permettevano anche di usare gli effetti grafici del desktop, cosa che NON si poteva fare con i driver proprietari di ATI. E questo come ce lo spieghiamo? Il driver open permetteva di usare la scheda video MEGLIO di come si poteva fare con i driver proprietari. E tutt’ora per avere meno problemi con le schede ati su linux conviene utilizzare i driver open, rinunciando però a prstazioni nel 3D.
    Quello che Cesare nn capisce è che la “comunità” nn è un’unica entità dove sn tutti integralisti arroganti! Si richiedono le specifiche per poter avere driver open….andrebbero bene anche se sti driver li realizzasse l’azienda stessa (come fa intel o hp per le stampanti). Inutile accanirsi contro questa “scelta” visto che è la “filosofia” che sta dietro a linux, GNU e al mondo open source in generale. è un sistema che funziona così e si cerca di portare avanti così! Se i costruttori non rilasciano driver oppure li fanno di cacca (come ATI) si richiedono a gran voce le specifiche così almeno ci pensa la community a far funzionare quel componente! Sta fissa che la community sia convinta di farli meglio è di Cesare e di chi guarda da “fuori” queste cose leggendo quello che scrive qualche utente esaltato o inesperto che usa linux!!! In altri casi, se l’azienda realizza cmq un buon driver come fa nvidia ci si “accontenta”. Certo si vorrebbero le specifiche per sapever come funziona quel driver ma nn si condanna nvidia per questo visto che da sempre supporta il pinguino meglio della maggior rivale.
    Qui c’è un topic sul forum di hwupgrade con il “sunto” sulla situazione attuale dei driver e come funzioneranno in futuro http://www.hwupgrade.it/forum/showthread.php?t=2002749

    Riguardo a vista avevo “intuito” da tempo (anche se nn sn per nulla esperto di ste cose) che c’era da migliorare molto la gestione dell’interfaccia grafica, e infatti così è stato! Sn contento di aver letto questo articolo così lo potrò linkare a tutti quelli che dicono che seven è uguale a vista e che quest’ultimo nn ha alcun problema di reattività e di consumo eccessivo della memoria!

  • # 32
    zephyr83
     scrive: 

    Quoto anche quello detto da Valantino! Riguardo agli “integralisti” del mondo open souce consiglio di leggere il libro: “Codice Libero – Richard Stallman e la crociata per il software libero”, scaricabile liberamente da qui http://www.copyleft-italia.it/pubblicazioni/codice-libero.pdf
    Lo sto leggendo e ora comprendo meglio cosa “anima” Stallman e come è “nato” tutto! Consiglio la lettura a tutti quelli che criticano aspramanete stallman e il mondo open souce in generale. Si può nn condividere il “pensiero” ma dopo la lettura certe convinzioni sbagliate secondo me svanirebbero.
    Il problema è nn conoscere ciò di cui si parla, si usa e si critica. I fanboy e gli esaltati ci sn sempre, ovunque e spesso sn anche i meno informati e nn fanno altro che creare una pessima fama a una intera “categoria” (o community in questo caso). Io stesso ho iniziato a usare linux senza saperne nulla, mi piaceva solo l’idea e la filosofia senza però aver bene inteso l’oggetto del discorso. Per fortuna sn sempre stato “moderato” di natura, ma alcune prese di posizione assurde e certe cagate le ho sparate eccome :D

  • # 33
    johnny
     scrive: 

    Ad oggi non esistono driver video che supportino la 1.1
    Verranno rilasciati nel 2010 con la patch per Vista che porterà il wddm 1.1 e il multitouch (marzo).

  • # 34
    Raffaele Fanizzi (Autore del post)
     scrive: 

    @johnny

    I driver ATI sono full WDDM 1.1 compliant dai Catalyst 9.3
    I driver NVIDIA sono full WDDM 1.1 compliant dalla versione 180.00 se non erro, anche se uscì qualche beta anche della seria 17x.

  • # 35
    Cesare Di Mauro
     scrive: 

    @Emanuele Rampichini: se ripercorri i commenti scritti, l’accanimento di cui parli non è certo il mio. Se sono intervenuto è soltanto a seguito di un commento che riportava fatti che non sono del tutto aderenti alla realtà, esponendo come stanno precisamente le cose.

    @Valentino: D’altro canto non si puo dire “sviluppateveli da soli” dato che anche chi usa gnu/linux paga l’hw e avrebbe diritto a un suppoto accettabile.
    Quindi se compro un qualunque prodotto dovrei aver diritto a un supporto accettabile per QUALUNQUE s.o. decida di farci girare sopra?

    E non è vero che la comunità open source non desidera altro che svilupparsi i driver da soli.
    Questo è quanto asserisce.

    Non è piacevole per chi compra una periferica appena uscita vedere che viene supportata dopo 6 mesi un anno su linux (capita con le schede nvidia)! Come è capitato in kde4 a circa un anno dall’uscita del DE ancora ci possono essere delle incompatipilita con i driver ufficiali e ci sono problemi per disegnare le finestre dell’interfaccia grafica. Su windows mensilmente viene ottimizato per l’ultimo gioco uscito il driver!
    Linux ha un market share di meno dell’1%. Windows del 90% circa. Mettendoti nei panni di un produttore, in che modo pensi sia più conveniente investire le proprie risorse?

    Su linux i driver prodotti dalle case a volte non possono nemmeno sfruttare l’accelerazione hdmi!
    L’HDMI non è un accelerazione, ma un protocollo di comunicazione. E finché non usi la protezione dei contenuti, funziona tranquillamente con qualunque s.o..

    Adesso non si chiede che ci sia questa velocità e puntualita nel supporto come su windows ma almeno un supporto che non faccia rimpiangere di aver comprato un dato prodotto.
    Se il supporto non è adeguato, non si compra il prodotto. E non si può biasimare il produttore, viste le quote di mercato di Linux & co.

    Il progrogramma che citi tu cioè quello dateci le specifiche e il driver lo sviluppiamo noi non è rivolto certo ai driver video ma a tutto il marasma di periferiche più semplici che si puo collegare al pc. Queste sono fatte da produttori minori, che non hanno certo il mercato di ati/nvidia, che vendono prodotti da poche decine di euro.
    E’ rivolto a tutti i prodotti, invece, e in particolar modo alle schede video, dove le preghiere a nVidia e Ati per il rilascio delle specifiche dei propri chip grafici si sprecano da anni.

    Inoltre i catalyst da quando si sono aperti con il supporto della comunita sono cresciuti molto tanto da non sofrire più rispetto la controparte linux nvidia. Anzi si è parlato tempo fa dell’attivazione dell’hdmi e di inclusione nel kernel per questi driver.
    Questo succede perché AMD e Novell c’hanno investito.

    Poi questa “Perché il lavoro di personale altamente qualificato vale 100 volte di più di quello di gente che è convinta che basta mettersi davanti alla tastiera per essere “il re del mondo” e poter fare qualunque cosa.” mi sembra un affermazione mi sembra eccessiva: Linux è fatto da una comunità di professionisti e non si ragazzini che si mette davanti al pc convinta di sapaccare il mondo! Anche perche se fosse cosi linux non sarebbe su molti dei supercomputer fatti da migliaia di processori dei centri di ricerca! Non si avrebbe il web server apache come standard de facto, per non parlare della moltitudine di application server, compilatori e rdbms e ide sviluppati in seno al progetto linux e rilasciati con licenze open! Ovviamente la comunita a reso tutto disponibile anche su windows!
    In tal caso se sono così competenti potrebbero benissimo sviluppare driver per le schede video Ati/AMD senza il supporto della casa madre.

    Mi viene difficile capire come alcuni riescono ad essere tanto avversi a prodotti di qualità cosi elevata che possono sfruttare in maniera gratuita!
    Forse perché quelli elencati non sono tutti prodotti di qualità così elevata.

    Certo fare di un software una religione è sempre sbagliato (sono ateo e non smetto di adorare un dio per adorarne un altro)!
    A mio modo di vedere il SO è semplicemente uno strumento e uso quello più adatto a quello che devo fare: sul pc dove gioco ho vista 64bit, sul portatile dove studio ho xp e kubuntu ma uso quasi esclusivamente kubuntu, sul server p2p ho una debian stable!
    bye

    Concordo.

    @zephyr83:Quoto quanto scritto da Emanuele Rampichini….allora nn sn l’unico a pensare che Cesare si accanisce contro l’open souce!
    La tua si chiama mania di persecuzione, ed è una brutta malattia. Io sono intervenuto su un PRECISO punto A SEGUITO delle affermazioni fatte su alcuni commenti, per riportare il preciso status.

    Cmq meglio fare qualche precisazione: NON è vero che AMD ha rilasciato le specifiche DA TEMPO! Anzi le ha rilasciate da poco e inizialmente solo per vecchie archtietture e solo per la parte relativa al 2D.
    Le specifiche 2D sono disponibili da parecchio tempo.

    Per il 3D le specifiche nn sn disponibili da molto
    Solo per le ultime schede video. Per quelle più vecchie sono disponibili da più tempo, ma non mi sembra che il supporto sia tanto migliore rispetto alle ultime.

    inoltre vengono inizialmetne rilasciate sotto NDA e ci lavorano solo quelli di novell e redhat se nn sbaglio, che “bonificano” la documentazione relative alle parti coperte da brevetto che nn riguardano direttamente (o solo) ati/amd.
    La “bonifica” è a opera di AMD, se non ricordo male, mentre Novell sui documenti non bonificati da subito, rispettando l’NDA.

    POI i driver arrivano anche alla comunità in maniera totalmente open source.
    I driver di Novell sono open e disponibili da subito.

    Quindi tutto sto tempo avuto a disposizione nn lo vedo!
    Non puoi prendere il rilascio delle ULTIME specifiche e generalizzare alla totalità la situazione.

    Però la cosa CERTA è che prima che AMD rilasciasse le specifiche i driver open per il 2D c’erano e permettevano anche di usare gli effetti grafici del desktop, cosa che NON si poteva fare con i driver proprietari di ATI. E questo come ce lo spieghiamo? Il driver open permetteva di usare la scheda video MEGLIO di come si poteva fare con i driver proprietari. E tutt’ora per avere meno problemi con le schede ati su linux conviene utilizzare i driver open, rinunciando però a prstazioni nel 3D.
    La spiegazione è semplicissima: prima Ati NON offriva un buon supporto a Linux.

    Quello che Cesare nn capisce è che la “comunità” nn è un’unica entità dove sn tutti integralisti arroganti!
    Tutti no, ma una buona parte sì.

    Si richiedono le specifiche per poter avere driver open….andrebbero bene anche se sti driver li realizzasse l’azienda stessa (come fa intel o hp per le stampanti). Inutile accanirsi contro questa “scelta” visto che è la “filosofia” che sta dietro a linux, GNU e al mondo open source in generale. è un sistema che funziona così e si cerca di portare avanti così! Se i costruttori non rilasciano driver oppure li fanno di cacca (come ATI) si richiedono a gran voce le specifiche così almeno ci pensa la community a far funzionare quel componente! Sta fissa che la community sia convinta di farli meglio è di Cesare e di chi guarda da “fuori” queste cose leggendo quello che scrive qualche utente esaltato o inesperto che usa linux!!! In altri casi, se l’azienda realizza cmq un buon driver come fa nvidia ci si “accontenta”. Certo si vorrebbero le specifiche per sapever come funziona quel driver ma nn si condanna nvidia per questo visto che da sempre supporta il pinguino meglio della maggior rivale.
    Questo è quello che pensi tu, non quello di chi lavora nel campo dei driver e richiede il rilascio delle specifiche. Anche a nVidia, i cui driver closed sono visti come una bestemmia.

    Quindi se richiedono le specifiche e queste vengono loro date, che si assumano non soltanto l’onore, ma anche l’onore di ottemperare ai proclami fatti.

    Quoto anche quello detto da Valantino! Riguardo agli “integralisti” del mondo open souce consiglio di leggere il libro: “Codice Libero – Richard Stallman e la crociata per il software libero”, scaricabile liberamente da qui http://www.copyleft-italia.it/pubblicazioni/codice-libero.pdf
    Lo sto leggendo e ora comprendo meglio cosa “anima” Stallman e come è “nato” tutto! Consiglio la lettura a tutti quelli che criticano aspramanete stallman e il mondo open souce in generale. Si può nn condividere il “pensiero” ma dopo la lettura certe convinzioni sbagliate secondo me svanirebbero.
    Il problema è nn conoscere ciò di cui si parla, si usa e si critica. I fanboy e gli esaltati ci sn sempre, ovunque e spesso sn anche i meno informati e nn fanno altro che creare una pessima fama a una intera “categoria” (o community in questo caso). Io stesso ho iniziato a usare linux senza saperne nulla, mi piaceva solo l’idea e la filosofia senza però aver bene inteso l’oggetto del discorso. Per fortuna sn sempre stato “moderato” di natura, ma alcune prese di posizione assurde e certe cagate le ho sparate eccome :D

    Prima dici di non badare agli integralisti arroganti, che non sono tutti così, di evitare ciò che scrive qualche esaltato, e poi mi prensenti un link che parla del peggior rappresentante della categoria… :D

    No, grazie, qualche anno fa ho cominciato a leggere qualche pagina, dopodiché ho chiuso il Acrobat. Star dietro alle allucinazioni a occhi aperti di un folle visionario e incoerente non m’interessa per niente. Preferisco spendere meglio il mio tempo.

  • # 36
    Cesare Di Mauro
     scrive: 

    @Emanuele Rampichini: se ripercorri i commenti scritti, l’accanimento di cui parli non è certo il mio. Se sono intervenuto è soltanto a seguito di un commento che riportava fatti che non sono del tutto aderenti alla realtà, esponendo come stanno precisamente le cose.

    @Valentino: D’altro canto non si puo dire “sviluppateveli da soli” dato che anche chi usa gnu/linux paga l’hw e avrebbe diritto a un suppoto accettabile.
    Quindi se compro un qualunque prodotto dovrei aver diritto a un supporto accettabile per QUALUNQUE s.o. decida di farci girare sopra?

    E non è vero che la comunità open source non desidera altro che svilupparsi i driver da soli.
    Questo è quanto asserisce.

    Non è piacevole per chi compra una periferica appena uscita vedere che viene supportata dopo 6 mesi un anno su linux (capita con le schede nvidia)! Come è capitato in kde4 a circa un anno dall’uscita del DE ancora ci possono essere delle incompatipilita con i driver ufficiali e ci sono problemi per disegnare le finestre dell’interfaccia grafica. Su windows mensilmente viene ottimizato per l’ultimo gioco uscito il driver!
    Linux ha un market share di meno dell’1%. Windows del 90% circa. Mettendoti nei panni di un produttore, in che modo pensi sia più conveniente investire le proprie risorse?

    Su linux i driver prodotti dalle case a volte non possono nemmeno sfruttare l’accelerazione hdmi!
    L’HDMI non è un’accelerazione, ma un protocollo di comunicazione. E finché non usi la protezione dei contenuti, funziona tranquillamente con qualunque s.o..

    Adesso non si chiede che ci sia questa velocità e puntualita nel supporto come su windows ma almeno un supporto che non faccia rimpiangere di aver comprato un dato prodotto.
    Se il supporto non è adeguato, non si compra il prodotto. E non si può biasimare il produttore, viste le quote di mercato di Linux & co.

    Il progrogramma che citi tu cioè quello dateci le specifiche e il driver lo sviluppiamo noi non è rivolto certo ai driver video ma a tutto il marasma di periferiche più semplici che si puo collegare al pc. Queste sono fatte da produttori minori, che non hanno certo il mercato di ati/nvidia, che vendono prodotti da poche decine di euro.
    E’ rivolto a tutti i prodotti, invece, e in particolar modo alle schede video, dove le preghiere a nVidia e Ati per il rilascio delle specifiche dei propri chip grafici si sprecano da anni.

    Inoltre i catalyst da quando si sono aperti con il supporto della comunita sono cresciuti molto tanto da non sofrire più rispetto la controparte linux nvidia. Anzi si è parlato tempo fa dell’attivazione dell’hdmi e di inclusione nel kernel per questi driver.
    Questo succede perché AMD e Novell c’hanno investito.

    Poi questa “Perché il lavoro di personale altamente qualificato vale 100 volte di più di quello di gente che è convinta che basta mettersi davanti alla tastiera per essere “il re del mondo” e poter fare qualunque cosa.” mi sembra un affermazione mi sembra eccessiva: Linux è fatto da una comunità di professionisti e non si ragazzini che si mette davanti al pc convinta di sapaccare il mondo! Anche perche se fosse cosi linux non sarebbe su molti dei supercomputer fatti da migliaia di processori dei centri di ricerca! Non si avrebbe il web server apache come standard de facto, per non parlare della moltitudine di application server, compilatori e rdbms e ide sviluppati in seno al progetto linux e rilasciati con licenze open! Ovviamente la comunita a reso tutto disponibile anche su windows!
    In tal caso se sono così competenti potrebbero benissimo sviluppare driver per le schede video Ati/AMD senza il supporto della casa madre.

    Mi viene difficile capire come alcuni riescono ad essere tanto avversi a prodotti di qualità cosi elevata che possono sfruttare in maniera gratuita!
    Forse perché quelli elencati non sono tutti prodotti di qualità così elevata.

    Certo fare di un software una religione è sempre sbagliato (sono ateo e non smetto di adorare un dio per adorarne un altro)!
    A mio modo di vedere il SO è semplicemente uno strumento e uso quello più adatto a quello che devo fare: sul pc dove gioco ho vista 64bit, sul portatile dove studio ho xp e kubuntu ma uso quasi esclusivamente kubuntu, sul server p2p ho una debian stable!
    bye

    Concordo.

  • # 37
    Cesare Di Mauro
     scrive: 

    @zephyr83:Quoto quanto scritto da Emanuele Rampichini….allora nn sn l’unico a pensare che Cesare si accanisce contro l’open souce!
    La tua si chiama mania di persecuzione, ed è una brutta malattia. Io sono intervenuto su un PRECISO punto A SEGUITO delle affermazioni fatte su alcuni commenti, per riportare il preciso status.

    Cmq meglio fare qualche precisazione: NON è vero che AMD ha rilasciato le specifiche DA TEMPO! Anzi le ha rilasciate da poco e inizialmente solo per vecchie archtietture e solo per la parte relativa al 2D.
    Le specifiche 2D sono disponibili da parecchio tempo.

    Per il 3D le specifiche nn sn disponibili da molto
    Solo per le ultime schede video. Per quelle più vecchie sono disponibili da più tempo, ma non mi sembra che il supporto sia tanto migliore rispetto alle ultime.

    inoltre vengono inizialmetne rilasciate sotto NDA e ci lavorano solo quelli di novell e redhat se nn sbaglio, che “bonificano” la documentazione relative alle parti coperte da brevetto che nn riguardano direttamente (o solo) ati/amd.
    La “bonifica” è a opera di AMD, se non ricordo male, mentre Novell sui documenti non bonificati lavora da subito, rispettando l’NDA.

    POI i driver arrivano anche alla comunità in maniera totalmente open source.
    I driver di Novell sono open e disponibili da subito.

    Quindi tutto sto tempo avuto a disposizione nn lo vedo!
    Non puoi prendere il rilascio delle ULTIME specifiche e generalizzare alla totalità la situazione.

    Però la cosa CERTA è che prima che AMD rilasciasse le specifiche i driver open per il 2D c’erano e permettevano anche di usare gli effetti grafici del desktop, cosa che NON si poteva fare con i driver proprietari di ATI. E questo come ce lo spieghiamo? Il driver open permetteva di usare la scheda video MEGLIO di come si poteva fare con i driver proprietari. E tutt’ora per avere meno problemi con le schede ati su linux conviene utilizzare i driver open, rinunciando però a prstazioni nel 3D.
    La spiegazione è semplicissima: prima Ati NON offriva un buon supporto a Linux.

    Quello che Cesare nn capisce è che la “comunità” nn è un’unica entità dove sn tutti integralisti arroganti!
    Tutti no, ma una buona parte sì.

    Si richiedono le specifiche per poter avere driver open….andrebbero bene anche se sti driver li realizzasse l’azienda stessa (come fa intel o hp per le stampanti). Inutile accanirsi contro questa “scelta” visto che è la “filosofia” che sta dietro a linux, GNU e al mondo open source in generale. è un sistema che funziona così e si cerca di portare avanti così! Se i costruttori non rilasciano driver oppure li fanno di cacca (come ATI) si richiedono a gran voce le specifiche così almeno ci pensa la community a far funzionare quel componente! Sta fissa che la community sia convinta di farli meglio è di Cesare e di chi guarda da “fuori” queste cose leggendo quello che scrive qualche utente esaltato o inesperto che usa linux!!! In altri casi, se l’azienda realizza cmq un buon driver come fa nvidia ci si “accontenta”. Certo si vorrebbero le specifiche per sapever come funziona quel driver ma nn si condanna nvidia per questo visto che da sempre supporta il pinguino meglio della maggior rivale.
    Questo è quello che pensi tu, non quello di chi lavora nel campo dei driver e richiede il rilascio delle specifiche. Anche a nVidia, i cui driver closed sono visti come una bestemmia.

    Quindi se richiedono le specifiche e queste vengono loro date, che si assumano non soltanto l’onore, ma anche l’onere di ottemperare ai proclami fatti.

  • # 38
    Cesare Di Mauro
     scrive: 

    @zephyr83:Quoto anche quello detto da Valantino! Riguardo agli “integralisti” del mondo open souce consiglio di leggere il libro: “Codice Libero – Richard Stallman e la crociata per il software libero”, scaricabile liberamente da qui http://www.copyleft-italia.it/pubblicazioni/codice-libero.pdf
    Lo sto leggendo e ora comprendo meglio cosa “anima” Stallman e come è “nato” tutto! Consiglio la lettura a tutti quelli che criticano aspramanete stallman e il mondo open souce in generale. Si può nn condividere il “pensiero” ma dopo la lettura certe convinzioni sbagliate secondo me svanirebbero.
    Il problema è nn conoscere ciò di cui si parla, si usa e si critica. I fanboy e gli esaltati ci sn sempre, ovunque e spesso sn anche i meno informati e nn fanno altro che creare una pessima fama a una intera “categoria” (o community in questo caso). Io stesso ho iniziato a usare linux senza saperne nulla, mi piaceva solo l’idea e la filosofia senza però aver bene inteso l’oggetto del discorso. Per fortuna sn sempre stato “moderato” di natura, ma alcune prese di posizione assurde e certe cagate le ho sparate eccome :D

    Prima dici di non badare agli integralisti arroganti, che non sono tutti così, di evitare ciò che scrive qualche esaltato, e poi mi presenti un link che parla del peggior rappresentante della categoria… :D

    No, grazie, qualche anno fa ho cominciato a leggere qualche pagina, dopodiché ho chiuso Acrobat. Star dietro alle allucinazioni di un folle e incoerente visionario non m’interessa per niente. Preferisco spendere meglio il mio tempo.

  • # 39
    Emanuele Rampichini
     scrive: 

    @Cesare Di Mauro
    Il fatto che i driver catalyst fanno abbastanza pena nella situazione attuale è un dato provato. Poi possiamo dare la colpa a Xorg o allo stesso kernel o ad altre mille cose. Resta il fatto che il lavoro di ATI/AMD non è un buon lavoro. Il fatto che Nvidia riesce a mantenere un driver proprietario buono e funzionante non fa che avvalorare la tesi che chi sta in AMD non riesce (o molto più probabilmente non ha alcun interesse) a fornire un supporto decente al proprio hardware per chi non usa windows.
    Io da parte mia, non avendo ne la presunzione di dire che i driver migliori posso scriverli da me o altre amenità del genere semplicemente evito schede video ATI. Scelgo quello che copre in maniera migliore le mie esigenze.

    Detto questo secondo me dovresti evitare di generalizzare la community linux come una categoria di fondamentalisti buoni a nulla (magari non te ne sei accorto ma questo traspare dai tuoi commenti). La parte che tu assimili all’intero è solo quella più rumorosa delle altre, non la più numerosa.

    Mi sa che siamo andati clamorosamente OT. :D

  • # 40
    Cesare Di Mauro
     scrive: 

    Visto che la questione non è chiara, la esplicito. Io ne faccio sempre una questione di coerenza.

    Se i sostenitori dell’open source affermano che vogliono soltanto le specifiche e poi penseranno loro alla realizzazione dei driver, non mi si venga poi a dire che i driver closed fanno schifo.

    Con le specifiche in mano e i driver open in alto mare, un po’ di sano silenzio sarebbe la scelta più saggia. Ma così, come vedi, non è.

    Tutto qui.

    Poi ognuno ovviamente farà le scelte che ritiene più opportune. Ci mancherebbe. ;)

  • # 41
    Raffaele Fanizzi (Autore del post)
     scrive: 

    Concordo sostanzialmente con Cesare. Che tra ATI/AMD ed NVIDIA ci sia una differenza nell’attenzione posta nello sviluppo di driver Linux è evidente e all’epoca scrissi anche un paio di articoli su HWUpgrade per valutare la differenza. L’esito fu un imbarazzante vantaggio per NVIDIA ovviamente.

    Il punto su cui concordo particolarmente è il fatto che si imputa la mancanza di un buon driver ATI/AMD alla mancanza di specifiche perché “se ci fossero, ce li faremmo noi in casa e tutto andrebbe meglio”. Poi però le specifiche escono e di fatto questi driver open ATI non hanno nulla di particolarmente appetibile.

    Esattamente come ha detto Cesare, la realtà è che i driver per le schede video di oggi sono estremamente complessi e che solo chi fa la GPU ha l’esperienza e la conoscenza per effettuare un lavoro esaustivo (non mezzo supporto 2D, un quarto di 3D, ecc…).

    Io penso che ATI/AMD sia nella direzione giusta per quanto concerne il supporto a Linux. Sono ormai mesi che rilascia mensilmente versioni aggiornate anche per Linux. Chiaramente siamo lontani da quanto ha fatto NVIDIA, ma è evidente che ATI/AMD ha investito meno in questo campo e fino ad un certo punto si può biasimarla. In fin dei conti Linux ha un market share insignificante in ambiente desktop ed è chiaro che, considerando la complessità della programmazione dei driver, dovendo scegliere per limiti di budget da dedicare allo sviluppo dei driver, si predilige assolutamente lo sviluppo dei driver Windows. Tra l’altro parliamo di prodotti espressamente votati al gaming, cioè esattamente l’ultima cosa che si potrebbe dire di un computer con sopra Linux.

    Io inviterei chi critica AMD/ATI per questo aspetto a mettersi nei panni di un produttore: se non c’è un ritorno economico potenzialmente interessante, non ha senso dedicare tempo e denaro ad un’attività e nel caso di Linux abbinato a schede video fatte per giocare, troppe cose devono incastrarsi per essere economicamente interessante, non di meno il fatto che lo sviluppo dei videogame di oggi predilige la piattaforma Microsoft e l’introduzione di XBOX e XBOX 360 non ha fatto altro che accentuare questo aspetto.

  • # 42
    zephyr83
     scrive: 

    Cesare ma cosa dici? si vede proprio che parli guardando le cose da fuori e senza informarti! I driver open PRIMA erano migliori di quelli closed, nn avevano il supporto al 3D ma funzionavano meglio e nn davano problemi! ORA gli attuali driver closed di AMD vanno bene nel 3D ma continuano a dare problemi con video ed effetti del desktop, cosa che nn capita cn i driver open! Come la mettiamo? Quello che dici nn regge! Inoltre ci stanno lavorando eccome e il TANTO tempo di cui parli dal rilascio delle specifiche si riferisce a settembre 2007 per il 2D (che già prima era supportato anche senza specifiche, pensa un po’ che incapaci che ci sn), mentre le prime informazioni sul 3D (neanche tutte) sn state concesse a fine dicembre 2008, cioè ci stanno lavorando da neanche 7 mesi!
    http://www.phoronix.com/scan.php?page=article&item=amd_r600_oss_3d&num=1
    Essì è proprio TANTO tempo!
    E Novell lavora sotto NDA finché i driver nn sn stati bonificati quindi al resto della community nn arriva niente per qualche mese. Ti sembra ci sia stato tanto tempo a disposizione? Anche su windows i produttori stessi ci mettono MESI per rilasciare le prime versioni dei driver (che solitamente nn sn neanche granché)…..creative ha fatto aspettare MESI e MESI e mi sa che ci è voluto più di un anno per un supporto adeguato alla x-fi.
    La “community” ci sta lavorando ai driver e su quelli nn si lamenta nessuno perché le schede funzionano BENE e nn danno problemi, manca solo il supporto 3D. I driver proprietari hanno discrete prestazioni nel 3D ma danno problemi per il resto. Quindi di che stai parlando? Forse ti fa piacere pensare che la “community” nn riesca a realizzare driver open dopo aver chiesto le specifiche ma mi spiace per te perché invece ci stanno riuscendo eccome e nessuno si lamenta! chi si lamenta ovviamente è chi possiede ADESSO una scheda video ATI e vorrebbe usarla ADESSO. Per risolvere i problemi attuali i possessori non sperano nei driver closed ma in quelli open!

    Riguardo a Stallman si vede che parli ormai per partito preso senza esserti minimamente informato sulla sua storia e secondo me nn hai letto neanche l’introduzione del libro che ho suggerito (ma forse avevi iniziato a leggere un’altra cosa).
    Per criticarlo bisognerebbe prima capire cosa lo “anima” e come è partito tutto! Quando Stallman lavorava al MIT, a quei tempi, era la prassi condividere il proprio lavoro e i produttori erano soliti rilasciare le varie specifiche sull’hardware e anche i sorgenti dei software/firmware! per 3 decenni si è andato avanti così ed era l’unico modo in fondo per far nascere ed evolvere questo “nuovo settore”. Stallman nn era l’unico ad essere contrario al cambiamento che stava avvenendo per mano delle aziende che avevano deciso di guadagnare sfruttando anche il software tenendo tutto segreto! In quei tempi è nata la “pratica di non divulgazione” e per come conosceva e concepiva lui questo mondo era una cosa inaccettabile! Molti altri erano contrari ma scendevano a “patti con la coscienza” per via del guadagno e perché pensavano che tanto prima o poi certe informazioni sarebbero state ugualmente rilasciate e disponibili per tutti.
    Stallman invece è sempre rimasto coerente per questo e nn ha mai “ceduto”. Almeno per me questo gli fa onore. Ed è soprattutto questa sua “integrità” che ha infastidito molti allontanandolo ed escludendolo da certi ambienti. Certo Stallman nn è certo un “santone” e ha modi tutti suoi, ma è stato uno dei pochi a nn rinunciare ai propri principi e a portare avanti un progetto così ambizioso!
    Sicuramente esagera nei modi, molti vorrebbero che fosse un po’ più “elastico”! Lo penso anche io però allo stesso tempo mi rendo conto che sia difficile visto che se ci ha creduto 20 anni fa quando sembrava una utopia ora invece il “traguardo” sembra più vicino quindi sarebbe un po’ assurdo “cedere” adesso.
    Ti consiglio vivamente di leggere SOLO la prefazione e il primo capitolo “Per volontà di una stampante” del libro che ho linkato per farti un’idea di cosa ha animato Stallman in tutti questi anni e perché ha certi atteggiamenti (sn solo 9 pagine, scritte anche bene e per nulla “partigiane”).
    Poi si può nn condividere ma almeno nn si sparano più certe affermazioni su incoerenza, allucinazioni e visioni!!! Facendo così sei uguale ai fan boy del pinguino che sparano a zero su microsoft, bill gates e a quel clow :D di Ballmer (che a me cmq sta simpatico)

  • # 43
    zephyr83
     scrive: 

    @Raffaele Fanizzi

    Scusa ma come fai a dire che i driver open nn hanno nulla di appetibile? Con i driver open funziona tutto bene e il sistema è sempre stabile! manca solo il supporto 3D al quale ci lavorano da meno di 7 mesi! Ma cosa state dicendo? Sul 3D stanno facendo un lavoro molto interessante e si cerca di spostare “l’attenzione” sul driver. A proprosito cito gallium3D http://en.wikipedia.org/wiki/Gallium3D
    Sanno benissimo tutti (quelli che ci lavorano o sn un minimo informati) che per un driver con ottime prstazioni 3D ci può mettere mano solo il produttore! le schede video sn molto complesse, nn è come il driver di un modem adsl o di una stampante!
    Il discorso che si faceva prima è che ATI dava un supporto da schifo e visto e c’erano problemi nell’uso quotidiano del computer! nn bisogna sempre e solo pensare al 3D e ai giochi! Nn si poteva usare neanche AIGLX per gli effetti del desktop, cosa che si riusciva ad avere con i driver open che manco supportavano il 3D. E tutto questo senza il rilascio delle specifiche. Ora MAD ha rilasciato le specifiche e lei stessa si sta impegnando di più nello sivluppo dei driver proprietari e questo va benissimo! Era quello che si voleva (più o meno) e i risultati si stanno vedendo. Nel 3D i driver proprietari hanno buone prestazioni però ci sn ancora problemi addirittura con i video e gli effetti del desktop. Con i driver open invece funziona tutto bene (ed era QUESTO che si cercava prima di tutto), manca solo il 3D ma ci stanno lavorando da poco e la strada scelta è interessante ma sicuramente complessa.
    Il problema è di chi nn si occupa direttamente di queste cose (ovviamente se uno n usa linux nn va a informarsi sul supporto per la propria scheda video) e si fa un’idea approsimativa leggendo i commenti di altre persone spesso poco informate che dicono la loro su un forum o un blog.

  • # 44
    j
     scrive: 

    dalla pagina linkata, si ricava che a fine 2008 (si tratta comunque di sette mesi fa, non proprio ieri): AMD has released the fundamental Linux code needed to begin fostering the development of an open-source R600 3D driver. Furthermore, this code also concerns the latest R700 series of graphics processors! The microcode for the newest GPUs has also been released.

    si parla di codice, preso evidentemente da propri driver e divulgato per facilitare la scrittura di un driver open source per la radeon serie HD di modo che i programmatori non dovessero partire da zero – non di documentazione, quella era stata già rilasciata mesi prima

    ma anche se fosse, 7 mesi – un anno non sono affatto pochi… se un team di sviluppatori in 7 mesi un anno di lavoro full time non riesce a “consegnare”, se non una final release quantomeno una beta (da rifinire e ottimizzare ma feature complete) per un progetto che il team aveva accettato, in cui si era dichiarato versato, e di cui erano note le specifiche e requisiti, vorrebbe dire che ci sono seri problemi (di vario tipo, logistico, di capacità e competenze degli elementi del team. di tempo, ecc )

    ora, novell qualche problema ce l’ ha, in effetti…
    http://www.phoronix.com/scan.php?page=news_item&px=NzEwNg

    Sanno benissimo tutti (quelli che ci lavorano o sn un minimo informati) che per un driver con ottime prstazioni 3D ci può mettere mano solo il produttore! le schede video sn molto complesse, nn è come il driver di un modem adsl o di una stampante!

    bene
    ma allora, perchè greg kroah hartman e altri (che pure a differenza di me e di te si trovano nella posizione di definire il modello di sviluppo del kernel linux) non la pensano come te?
    perchè hanno preteso a gran voce le specifiche dell’ hw da parte dei produttori di periferiche (o meglio ancora, per risparmiarsi del lavoro), nel contempo disincentivandone lo sviluppo di driver binari (ma funzionanti e disponibili subito all’ utente finale) da parte dei produttori di periferiche?
    perchè hanno optato e giustificato un modello di sviluppo che lega il livello di supporto alle versioni del kernel piuttosto che versioni del driver (come sarebbe più logico) e che richiede l’ installazione di un nuovo kernel (e di un nuovo set di driver) per supportare magari un solo specifico componente?

    Quando Stallman lavorava al MIT, a quei tempi, era la prassi condividere il proprio lavoro e i produttori erano soliti rilasciare le varie specifiche sull’hardware e anche i sorgenti dei software/firmware!
    per quanto attiene il sw sviluppato nei centi di ricerca e università la prassi è ancora quella (le varianti della licenza liberale per antonomasia sono chiamate BSD/MIT non a caso) perchè (almeno da quelle parti) si pensava (giustamente) che essendo lo sviluppo di tale sw già coperto dalle rette accademiche e dalle sovvenzioni sia private sia pubbliche versate alle università, non fosse necessario proteggerlo ulteriormente dalle speculazioni dell’ industria (che peraltro contribuisce finanziariamente alle sovvenzioni di cui sopra) , e che d’ altra parte (anche per questo motivo) dovesse restare a disponibile per tutti (privati E aziende) e per qualsiasi utilizzo (commerciale o no)

    Molti altri erano contrari ma scendevano a “patti con la coscienza” per via del guadagno e perché pensavano che tanto prima o poi certe informazioni sarebbero state ugualmente rilasciate e disponibili per tutti.
    non si tratta di scendere a patti con la coscienza, si tratta di essere pragmatici e di vedere il sw per quello che realmente è
    se uno lavora nell’ informatica programmando applicazioni commerciali, e il suo posto di lavoro dipende più o meno direttamente dal numero di copie dell’ applicazione che contribuisce a sviluppare, vendute, e dall’ innovatività degli algoritmi in essa contenuti, non può permettersi di fare come chi scrive sw magari per hobby con un impiego (magari in tutt’ altro campo) a sostentarlo – o comunque senza aver nulla da perdere dal divulgarne i sorgenti

    In quei tempi è nata la “pratica di non divulgazione” e per come conosceva e concepiva lui questo mondo era una cosa inaccettabile!

    stallman, dal suo pulpito di fisico ricercatore (non informatico) al mit, vede le cose diversamente da come può permettersi di giudicare e pontificare cosa è accettabile e cosa no

    rispetto al caso di cui sopra stallman ha effettivamente affermato che l’ errore sarebbe di chi si “passa al lato oscuro” accettando un impiego presso una software house, e che in pratica sia questi a dover pagare lo scotto di essere dalla parte del torto – il che implica che la persona dovrebbe anteporre la libertà del sw (cioè di una sua creazione) a quella, propria, di mettere a frutto come preferisce, o come può, la propria competenza e il proprio bagaglio di conoscenze acquisite in anni di studio …

    anche tu ritieni che “tutto” il sw debba essere open source e non ci debba essere spazio per chi produce sw commerciale, o piuttosto che il sw sia un prodotto dell’ ingegno come un altro e alla fin fine una licenza piuttosto che un altra, o se il codice sia open o closed, dipendono dal modo di operare di chi scrive il sw e sono aspetti strumentali alla realizzazione degli obiettivi che questi si pone?

  • # 45
    zephyr83
     scrive: 

    @J

    Scusa stai dicendo che 7 mesi sn necessari per realizzare un driver così complesso altrimenti la colpa è di gente incapace? bene allora a me paiono TUTTI incapaci, anche su windows….e si che sti incapaci si fanno anche l’hardware in casa e ci mettono mesi per una versione funzionante per windows….figurati quelli “esterni”. Cmq ripeto per l’ennesima volta, il driver open nn da problemi per il resto manca il supporto pieno al 3D….ma il driver funziona alla perfezione, meglio di quello proprietario! sta cosa mi sa che nn la legge (o nn la vuole leggere) nessuno!

    Riguardo lo sviluppo del kernel la funziona così, è una loro scelta, è nato così ed è cresicuto così! nn so bene nel dettaglio come funziona ma sarebbe come criticare microsoft per la certificazione dei driver su vista!

    Riguardo al questione di stallman, per favore leggi almeno le prime 9 pagine del libro che ho linkato (prefazione e capitolo 1) così capisci di cosa parlo e perché stallman è così “accanito” e nn accetta compromessi! Fa ovviamente parte del suo carattere, ma bisogna considerare anche considerare l’ambiente informatico in cui è nato e cresciuto e a quei tempi le cose funzionavano diversamente! Pensa che è proprio nato tutto per il driver di una stampante xerox.

    Inoltre dimostri di essere poco informato su stallman oppure vuoi solo cercare di “screditarlo”. Anche se ha una laurea in fisica (con lode ad harvard, mica pizza e fichi) lui è un informatico e programmatore a tutti gli effetti:
    “Stallman nacque da Daniel Stallman e Alice Lippman nel 1953 a New York City, New York. Assunto dalla IBM New York Scientific Center, Stallman passò l’estate dopo il diploma di scuola superiore scrivendo il suo primo programma, un processore per il linguaggio di programmazione PL/I sull’IBM 360.

    Durante questo periodo, Stallman fu anche un volontario assistente di laboratorio al dipartimento di biologia alla Rockefeller University. Sebbene si stesse già indirizzando verso una carriera da matematico o fisico, il suo professore alla Rockefeller pensò che avrebbe avuto un futuro come biologo. Nel giugno del 1971 al primo anno da studente all’università di Harvard, Stallman diventò un programmatore al laboratorio IA (Intelligenza Artificiale) del MIT. Qui prese parte alla comunità degli hacker, dove era solitamente conosciuto con le iniziali “RMS”. Nella prima edizione del dizionario dell’Hacker scrisse: Richard Stallman è solo il mio nome mondano; tu puoi chiamarmi ‘rms’, il suo nickname è un gioco di parole: in inglese, “RMS” è anche un acronimo per “Root Mean Square” – valore efficace in italiano.

    Stallman si laureò con lode (magna cum laude) ad Harvard in Fisica nel 1974. In seguito, Stallman si iscrisse da laureato in fisica al MIT, ma abbandonò i suoi studi universitari rimanendo un programmatore al laboratorio di intelligenza artificiale del MIT.”
    Ti sembra poco? a me proprio no! Almeno nn cerchiamo di farlo passare per quello che nn è!

    io no, nn sn per l’obbligo del codice open source a tutti i costi (cmq nn vedo cosa ci sarebbe di male a far vedere il proprio codice se c’è una licenza commerciale adeguata….e infatti alcuni lo fanno senza grossi problemi). Ma la questione è diversa! nn sto dicendo che bisogna dare per forza retta a stallman e che lui dice cose giuste! Sto cercando di far capire perché dice quelle cose e da dove è nato il suo pensiero! I commenti denigratori ne suoi confronti mi sembrano troppi ed eccessivi e ci si dimentica che se ora esiste GNU e Linux è così diffuso lo si deve tanto e soprattutto a lui e alla sua odiata GPL!

  • # 46
    j
     scrive: 

    Inoltre dimostri di essere poco informato su stallman oppure vuoi solo cercare di “screditarlo”.
    se avessi voluto creditarlo avrei potuto farlo forse più efficacemente, linkando certe sue uscite che di recente hanno fatto il giro del mondo, o un filmato youtube in cui si vede… meglio sorvolare

    il punto era che le sue convinzioni e la sua “filosofia” sono maturate in un contesto specifico e se vogliamo, da una posizione privilegiata, quella del mondo accademico americano, avendo egli scelto di rimanere al MIT come ricercatore, e non dovendo quindi, per vivere, scrivere sw destinato a essere venduto, a differenza di coloro che invece, hanno scelto di lavorare per società informatiche
    il loro carattere radicale, il modo di portarle avanti, il ritenere di essere nel giusto e gli altri in torto al pari di iphone, di .net e delle console ( http://blogs.zdnet.com/carroll/?p=1671 ), il ritenere che tra emacs e un figlio, un programmatore debba dare la priorità al primo (http://edward.oconnor.cx/2005/04/rms) …
    questo ha vari nomi, ma non c’ entra nulla con l’ avere una laurea o avere scritto un compilatore c… ;)

    io no, nn sn per l’obbligo del codice open source a tutti i costi (cmq nn vedo cosa ci sarebbe di male a far vedere il proprio codice se c’è una licenza commerciale adeguata….

    se io vendo un’ applicazione commerciale, significa che la mia applicazione contiene qualcosa di più o di meglio rispetto a quelle gratuite, o aperte, magari degli algoritmi più efficienti per l’ elaborazione di grosse quantità di dati, la cui presenza nella mia applicazione ne costituisce il plus valore e attesta che io mi sono impegnato per studiari e implementarli

    se io aprissi il codice, chiunque potrebbe dedurli e poi riusarli nella propria applicazione evitandosi il lavoro di analisi e studio in cui ho investito tempo e denaro (per pagare il team di sviluppo) – con il risultato che sì, gli utenti avrebbero a disposizione un’ applicazione open source, gratuita, o quantomeno più economica della mia, ma io perderei dei potenziali acquirenti…

    I commenti denigratori ne suoi confronti mi sembrano troppi ed eccessivi

    per quanto mi riguarda, mi dà solo fastidio l’ arroganza in generale e l’ idea che il sw debba essere considerato un veicolo per valori morali e filosofie o, peggio, uno “stile di vita” e non il puro e semplice “strumento per svolgere un lavoro” quale è …

    se ora esiste GNU e Linux è così diffuso

    se con meno dell’ 1% (senza contare la frammentazione in distribuzioni, ognuna delle quali in effetti fa caso a sè) ti sembra “così diffuso” …
    comunque se non fosse esistito il progetto gnu si sarebbe con tutta probabilità usato BSD, il cui codice, è utile ribadirlo, è sempre stato disponibile per qualunque uso, compreso il relicensing sotto gpl – e quando si diceva che la licenza BSD fosse incompatibile con la gpl, stallman stesso citava come unica ragione la cosiddetta “advertising clause” (clausola che prevedeva di menzionare l’ autore nei lavori derivati e nella loro documentazione, e che è stata poi rimossa )

    è anche utile ricordare che nelle intenzioni di stallman il kernel del progetto gnu avrebbe dovuto essere HURD, a sua volta basato su un microkernel forkato da Mach (mach a sua volta nato sotto bsd)

    lo si deve tanto e soprattutto a lui e alla sua odiata GPL!

    principalmente lo si deve alle aziende (senza ibm e redhat e hp, linux molto probabilmente non sarebbe andato molto oltre la fase 2.0, e il progetto gnu sarebbe ancora nel limbo in attesa del completamento di HURD) e al fatto che alla fine le aziende sono sempre e comunque pragmatiche…

  • # 47
    Cesare Di Mauro
     scrive: 

    @zephyr83: Cesare ma cosa dici? si vede proprio che parli guardando le cose da fuori e senza informarti! I driver open PRIMA erano migliori di quelli closed, nn avevano il supporto al 3D ma funzionavano meglio e nn davano problemi! ORA gli attuali driver closed di AMD vanno bene nel 3D ma continuano a dare problemi con video ed effetti del desktop, cosa che nn capita cn i driver open! Come la mettiamo? Quello che dici nn regge!
    Il tuo problema è che quello che dico manco lo leggi, per cui non mi meravigliano certe tue “risposte”. Cosa non ti è chiaro di questo:

    “La spiegazione è semplicissima: prima Ati NON offriva un buon supporto a Linux.”

    ?

    Quando la smetterai di parlare senza nemmeno tenere in considerazione il contesto della discussione?

    Fra l’altro non si capisce nemmeno cos’è di quello che ho detto che non ti sarebbe andato giù, quando la frase che ho riportato sopra è piuttosto chiara. La prossima volta quanto meno quotami quando mi devi rispondere: almeno sarà più facile cercare di ricostruire il contesto da cui parte tutto.

    Inoltre ci stanno lavorando eccome e il TANTO tempo di cui parli dal rilascio delle specifiche si riferisce a settembre 2007
    Due anni. Praticamente due ere geologiche e… solo per il 2D. Per il 3D quanto dovremo aspettare? 20 anni?

    per il 2D (che già prima era supportato anche senza specifiche, pensa un po’ che incapaci che ci sn)
    Certo, perché è ben noto che le funzionalità 2D siano estremamente complicate…

    mentre le prime informazioni sul 3D (neanche tutte) sn state concesse a fine dicembre 2008, cioè ci stanno lavorando da neanche 7 mesi!
    Considerato che ogni 6 mesi escono delle nuove generazioni di schede video, siamo messi benissimo…

    E Novell lavora sotto NDA finché i driver nn sn stati bonificati quindi al resto della community nn arriva niente per qualche mese.
    Anche qui, dimostri di non leggere: l’NDA è per la DOCUMENTAZIONE, non per i driver. AMD deve eliminare ogni riferimento a tecnologie o proprietà intellettuali che NON le appartegono dalla SUA documentazione. Ma intanto permette a Novell di lavorarci, anche se sotto NDA, e quindi il codice viene sviluppato.

    Ti sembra ci sia stato tanto tempo a disposizione?
    Sì.

    Anche su windows i produttori stessi ci mettono MESI per rilasciare le prime versioni dei driver (che solitamente nn sn neanche granché)…..
    Per le schede video i driver escono con le schede video, anche se per le prime versioni sono da affinare (ma già funzionano abbastanza bene).

    creative ha fatto aspettare MESI e MESI e mi sa che ci è voluto più di un anno per un supporto adeguato alla x-fi.
    E infatti s’è fatta una bella fama. Gli sbagli si pagano cari.

    La “community” ci sta lavorando ai driver e su quelli nn si lamenta nessuno perché le schede funzionano BENE e nn danno problemi, manca solo il supporto 3D.
    Hai detto niente. :D

    I driver proprietari hanno discrete prestazioni nel 3D ma danno problemi per il resto. Quindi di che stai parlando?
    Almeno funzionano, e permettono di sfruttare le centinaia di milioni di transistor che hai pagato.

    Poi se ti accontenti del solo supporto 2D, non vedo perché dovresti andare a buttare soldi: ci sono schede da due lire che ti permettono di sfruttarlo.

    Forse ti fa piacere pensare che la “community” nn riesca a realizzare driver open dopo aver chiesto le specifiche ma mi spiace per te perché invece ci stanno riuscendo eccome e nessuno si lamenta!
    Ma se hai detto che il 3D non è supportato. Praticamente compri una scheda che è pensata quasi esclusivamente per il 3D, per non usarne le funzionalità perché… non sono implementate.

    Nulla da dire, per carità: ognuno i soldi li spende come vuole. Anche per cose di cui non sfrutterà nemmeno per l’1%…

    chi si lamenta ovviamente è chi possiede ADESSO una scheda video ATI e vorrebbe usarla ADESSO.
    E ci mancherebbe: i soldi li ha speso adesso, no? Se devi aspettare tanto per dei driver funzionanti discretamente, tanto vale comprare una scheda che offre solo il supporto 2D, e amen.

    Per risolvere i problemi attuali i possessori non sperano nei driver closed ma in quelli open!
    Su cui ci lavorano AMD e Novell. Altrimenti chissà quando sarebbero pronti…

    Riguardo a Stallman si vede che parli ormai per partito preso senza esserti minimamente informato sulla sua storia e secondo me nn hai letto neanche l’introduzione del libro che ho suggerito (ma forse avevi iniziato a leggere un’altra cosa).
    Anche qui, il tuo problema è che nemmeno leggi quello che scrivono gli altri, e parti in quarta sparando ovviamente delle assurdità che non stanno né in cielo né in terra.

    Cosa non ti è chiaro di questo:

    “qualche anno fa ho cominciato a leggere qualche pagina”

    ?

    Quando rispondi fammi almeno la cortesia di leggere quello che scrivo, così eviti di farmi perdere tempo inutilmente a incollarti quello che già ho detto.

    Quando Stallman lavorava al MIT[...]prima o poi certe informazioni sarebbero state ugualmente rilasciate e disponibili per tutti.
    La storia di Stallman la conosco, grazie. Su questo ti ha già risposto j: in ambito accademico è naturale e ancora oggi si fa così.

    Stallman invece è sempre rimasto coerente per questo e nn ha mai “ceduto”.
    Stallman la coerenza non sa nemmeno dove stia di casa. Se non gli va bene il mondo delle proprietà intellettuali e dei brevetti, che si trasferisca su un’isola deserta e cominci a costruirsi tutto ciò che gli serve con le proprie mani. Non si sa mai dovesse usare prodotti in qualche modo coperti da licenze & co…

    Almeno per me questo gli fa onore. Ed è soprattutto questa sua “integrità” che ha infastidito molti allontanandolo ed escludendolo da certi ambienti.
    L’onore se lo guadagnerebbe se criticasse .NET a 360°, anziché aver dato la benedizione a progetti come DotGNU. Tanto per fare un esempio di “integrità” dell’energumeno.

    Non ho mai visto gente così falsa, bugiarda, ma soprattutto incoerente. E’ un vero campione di disonestà intellettuale.

    Certo Stallman nn è certo un “santone” e ha modi tutti suoi, ma è stato uno dei pochi a nn rinunciare ai propri principi e a portare avanti un progetto così ambizioso!
    Sui “principi” stendiamo un velo pietoso, che è meglio.

    Sicuramente esagera nei modi, molti vorrebbero che fosse un po’ più “elastico”!
    Elastico lo diventerà a forza di prender mazzate per le assurdità che propina.

    Lo penso anche io però allo stesso tempo mi rendo conto che sia difficile visto che se ci ha creduto 20 anni fa quando sembrava una utopia ora invece il “traguardo” sembra più vicino quindi sarebbe un po’ assurdo “cedere” adesso.
    Per “traguardo” immagino intenderai anche quel capolavoro di s.o. di “Hurd”, in alpha da 25 (VENTICINQUE) anni. Roba che, tra l’altro, cita e spaccia come fosse reale. Ma tant’é: vive in un mondo tutto suo…

    Ti consiglio vivamente di leggere SOLO la prefazione e il primo capitolo “Per volontà di una stampante” del libro che ho linkato per farti un’idea di cosa ha animato Stallman in tutti questi anni e perché ha certi atteggiamenti (sn solo 9 pagine, scritte anche bene e per nulla “partigiane”).
    Già fatto grazie, e m’è bastato.

    Poi si può nn condividere ma almeno nn si sparano più certe affermazioni su incoerenza, allucinazioni e visioni!!! Facendo così sei uguale ai fan boy del pinguino che sparano a zero su microsoft, bill gates e a quel clow :D di Ballmer (che a me cmq sta simpatico)
    Io argomento. Sempre. E se vuoi di Stallman e delle sue folli farneticazioni possiamo parlare da qui a quando qualche fanatico non deciderà di chiudermi la bocca per sempre, perché gli ho toccato il totem che idolatra.

    Sanno benissimo tutti (quelli che ci lavorano o sn un minimo informati) che per un driver con ottime prstazioni 3D ci può mettere mano solo il produttore! le schede video sn molto complesse, nn è come il driver di un modem adsl o di una stampante!
    E allora facciano una cortesia: la smettano di stracciarsi le vesti perchè nVidia e Ati (prima) non rilasciano le specifiche delle loro GPU.

    Il discorso che si faceva prima è che ATI dava un supporto da schifo e visto e c’erano problemi nell’uso quotidiano del computer!
    Vuol dire che non ha voluto investirci. E non la biasimo per questo.

    nn bisogna sempre e solo pensare al 3D e ai giochi!
    Allora compratevi delle schede video che offrono ottime funzionalità 2D, e basta.

    Nn si poteva usare neanche AIGLX per gli effetti del desktop, cosa che si riusciva ad avere con i driver open che manco supportavano il 3D. E tutto questo senza il rilascio delle specifiche. Ora MAD ha rilasciato le specifiche e lei stessa si sta impegnando di più nello sivluppo dei driver proprietari e questo va benissimo! Era quello che si voleva (più o meno) e i risultati si stanno vedendo.
    Quello che si voleva erano soltanto le specifiche. AMD è andata ben oltre, e considerata la quota di mercato di Linux & co., ha fatto anche più del dovuto.

    Il problema è di chi nn si occupa direttamente di queste cose (ovviamente se uno n usa linux nn va a informarsi sul supporto per la propria scheda video) e si fa un’idea approsimativa leggendo i commenti di altre persone spesso poco informate che dicono la loro su un forum o un blog.
    E’ sufficiente leggere le dichiarazioni della gente che lavora al kernel di Linux & co., per capire come stanno le cose.

    Almeno dite a questi saltimbanchi informatici che stiano zitti, visto che non hanno la minima idea del lavoro che c’è dietro alla scrittura di un driver video, e l’aiuto dei produttori dovrebbe essere sempre bene accetto. Closed od open che sia.

  • # 48
    Ikon
     scrive: 

    …Sarà meglio di Vista! Bella scoperta! Non ci vuole poi mica tanto! A pensare che ho usato tutte le versioni di windows… appena ho messo le mani su Vista ho detto: “Sarà ora che comincio ad usare un computer come si deve?”. Allora sono passato ad Ubuntu. E’ decisamente meglio di Windows, sicuramente a primo impatto grafico è più simile lui ad XP che Vista! E’ tutto un altro mondo e se non fate giochini, ma tutto quello che vi manca è Office mettete su virtualbox e andate che è una vera bellezza. Ora non sono più soggetto alle perverse logiche di mercato di Microsoft, non devo farmi 1000 problemi per cambiare sistema operativo quando esce quello nuovo, perchè i drivers non ricordo più nemmeno cosa siano! Inoltre è tutto gratis e sinceramente molti programmi sono migliori di quelli che esistevano su Windows… Meglio perdere 2 mesi ad imparare Linux, che 1 settimana ogni anno per capire come è strutturato il nuovo Windows!!! Adesso vi lascio, vado a farmi una partita a Starcraft su Ubuntu!

  • # 49
    zephyr83
     scrive: 

    @J

    Ma che dici? ma sai come funzionavano le cose ai quei tempi? manco c’erano i personal computer e mi sa che praticamente nessuno vendeva software per guadagnarci! uno frai i primi dovrebbe esser stato un certo Brian Reid che realizzò Scribe, un programma di formattazione testi e introdusse, che per rendere attraente il programma per qualche azienda introdusse il meccanisco di prova a tempo. Dovrebbe esser stato uno dei primi casi se nn il primo!
    A quei tempi le cose erano molto ma molto diverse, era un altro mondo!
    Cmq richieste di lavoro le ha avute anche stallman, eccome se le ha avute!

    Inoltre dove sarebbe il problema nel vendere un’applicazione e far vedere il codice? A me sembra prorpio NESSUNO e alcuni esempi ci sn. Il problema c’è solo in caso di licenze come la gpl che nn vieta di vendere il software, ma chi lo compra può rimodellare il codice e fare del software quello che vuole, anche distribuirlo liberamente. Ecco questo si che a livello commerciale è un freno. Ma qui parliamo di software proprietario secondo stallman e la FSF. Mentre se si parla di open souce la cosa è diversa! Puoi benissimo far vedere il sorgente ma usare una licenza che ne impedisca il riutilizzo in ambito commerciale. Inoltre alcune parti possono benissimo essere coperte da brevetto.

    Poi la diffusione tu la valuti solo in ambito desktop! vediamo quanti server o router montano un kernel linux e facciamo i conti! magari consideriamo anche quanti programmi sn compilati con il compilatore di stallman, rimarrai sbalordito!

    il problema è che nn capisci il discorso di fondo che fa stallman! si può nn condividere ma almeno si dovrebbe conoscere e sapere perché lui la pensa così. Inoltre c’è molta confusione fra linux, gnu, open souce e software proprietario. Così è impossibile fare discussioni che portano a qualcosa.

    @Cesare Di Mauro
    Nn capisco questo odio verso stallman, da come ne parli per me nn conosci minimamente il suo pensiero e quale è stata la sua vita, così come J. Parli di incoerenza per .net e dotgnu? bene nn hai capito il discorso di fondo! io nn ci vedo incoerenza, mi spieghi dove sarebbe sta incoerenza? E perché dovrebbe criticare .NET a 360 gradi visto che è un ottimo ambiente di sviluppo? Condanna quello che è coperto da brevetti e usa una licenza che nn permette il libero utilizzo di un software. Infatti dotnet si prefigge il compito di superare questi “ostacoli” e poter usare un sistema simile a .net (che è cmq molto valido) nell’ambito del software libero. Mica stanno cercando di implementare al 100% .Net come quelli di mono e a loro nn frega mica della compatibiltà cn le applicazioni realizzate con il framwork di microsoft! Dove sta l’incoerenza? è incoerente per l’idea che ti sei fatto tu di stallman e del mondo open source.
    Di stallman puoi dire tutto ma che manchi di onestà intellettuale è una trollata bella e buona, al pari di chi dice che windows fa schifo a prescindere!!!

    Poi che c’entra Hurd? quello è un kernel, nn sn mai riusciti a portarlo a termine ma è arrivato linux! E il resto di GNU dove lo metti? Penso tu saprai quanti programmi nei vari ambiti sn compilati con il compilatore realizzato da stallman!!!

    E sui driver nn so quante volte devo ancora dirlo! IL driver 2d si è fatto SUBITO, altro che due anni (e poi neanche sn due anni ancora) e già c’era prima! Per il 3D ci lavorano da meno di 7 mesi e i lavori dovrebbero essere abbastanza avanti. Cmq mi spieghi cosa te ne fai del 3D se poi nn riesci neanche a vedere un video perché da problemi? è questo che succede con i driver proprietari di ati. Meglio un driver a cui manca solo il supporto 3D ma che ti permette di usare il tuo computer e fare tutto tranne una unica cosa oppure è meglio un driver che ti permette di sfruttare il 3D ma poi ti da problemi nell’uso quotidiano? Per me la risposta è ovvia!

    Certo che definire saltimbanchi gli sviluppatori di linux ce ne vuole? pensi che siano così incapaci? pensi di essere migliore di loro? anche questa a me sembra una trollata bella e buona! Critichi una cosa che nn hai minimamente compreso, nn sn certo loro a dover star zitti!

  • # 50
    j
     scrive: 

    Ma che dici? ma sai come funzionavano le cose ai quei tempi?

    dipende da quali sono “quei tempi”.. negli anni 60 non c’ ero, negli anni 70 ero troppo piccolo per averne esperienza diretta (ma negli anni 80 mi stavo già interessando all’ informatica in genere)
    ma negli anni 70 non esisteva nemmeno il progetto gnu…

    manco c’erano i personal computer e mi sa che praticamente nessuno vendeva software per guadagnarci!

    ti sa male, dagli anni 70 in avanti quello che al di fuori degli ambiti accademici era la prassi di condividere i sorgenti
    quella di vendere o sviluppare sw su commissione esiste non è nata con i personal, ma esiste almeno da quando esistono mainframe e mini usati a livello aziendale (quindi da quando c’è bisogno di applicazioni ad hoc )…

    il progetto gnu è nato nel 1983, quando nel “resto del mondo” personal e home computer a 8 e 16 bit erano già realtà, insieme ai sistemi operativi (tutti commerciali e closed source) e alle applicazioni e giochi (idem) che vi giravano su

    Inoltre dove sarebbe il problema nel vendere un’applicazione e far vedere il codice? A me sembra prorpio NESSUNO

    l’ ho scritto poco sopra, lo rispiego

    in uno stesso segmento applicazioni simili spesso differiscono solo per il prezzo, o perchè una può vantare delle caratteristiche peculiari, magari a livello funzionale algortmico – queste peculiarità per essere originali quindi “esclusive” richiedono per essere ideate e implementate, tempo, quindi denaro;
    pubblicando il sorgente si avvantaggiano gli sviluppatori di applicazioni concorrenti, a cui basterebbe leggerli una volta per apprendere come reimplementare gli stessi algoritmi o gli stessi accorgimenti di design, con un impegno (quindi costi di ricera e sviluppo) inferiori
    quindi potrebbero eventualmente raggiungere la feature parity mantenendo la propria applicazione gratuita o comunque più conveniente della mia, la mia non sarebbe più concorrenziale e io perderei potenziali acquirenti…

    e alcuni esempi ci sn.

    potresti farmi qualche esempio di sw open source, non “commoditized”, fonte di introiti per chi lo produce, e
    venduto, a copia (e non solo come “contratto di supporto a lungo termine”) da una società finanziariamente in attivo?
    perchè a me non ne viene in mente nessuno…

    Il problema c’è solo in caso di licenze come la gpl che nn vieta di vendere il software, ma chi lo compra può rimodellare il codice e fare del software quello che vuole, anche distribuirlo liberamente.

    il problema è che secondo la gpl, si giustifica la “vendita” del software fintanto che si tratta di coprire i costi vivi di packaging (supporto fisico, mauale), distribuzione / spedizione, e supporto tecnico

    ma siccome chiunque ha il diritto di ridistribuire il software a propria discrezione (quindi senza far pagare alcunchè), non si possono in sostanza associare royalties per singola copia da versare a terzi
    il che impedisce di implementare funzioni che richiedano il licensing di proprietà intellettuale di terzi
    il che è anche auspicabile per mantenere il sw, completamente “libero”, ma per alcune cose (come, in ambito grafico, la palette di colori Pantone – che a livello professionale fa la differenza tra il poter usare l’ applicazione in lavori per conto di aziende o di agenzie governative, e il non poterlo fare) può essere limitante…

    Parli di incoerenza per .net e dotgnu? bene nn hai capito il discorso di fondo! io nn ci vedo incoerenza, mi spieghi dove sarebbe sta incoerenza?

    http://www.osnews.com/story/21753/Stallman_Warns_of_Mono_Right_
    che a sua volta cita
    http://www.fsf.org/news/dont-depend-on-mono

    il redattore capo di OSNews non riesce a non vedere una certa ambiguità nel discorso di stallman, ha preso un abbaglio anche lui?

    E perché dovrebbe criticare .NET a 360 gradi visto che è un ottimo ambiente di sviluppo?

    questo lo sappiamo io e te, ma qui si parlava di come lo giudica stallman
    e a me non sembra dica nulla del genere, nè che esprima alcun giudizio qualitativo sull’ ambiente di sviluppo in quanto tale

    Condanna quello che è coperto da brevetti e usa una licenza che nn permette il libero utilizzo di un software.

    dal secondo link di prima:
    “We should systematically arrange to depend on the free C# implementations as little as possible. In other words, we should discourage people from writing programs in C#.”

    qui mi pare che esorti ad evitare proprio di programmare in c# per ridurre il rischio di una dipendenza da mono, non a programmare in c# evitando le parti coperte da brevetto
    ora, che l’ abbia scritto prima dell’ annuncio di microsoft (e da quello del progetto mono, di dividere la code base in due parti) è vero, ma non mi pare di aver ancora visto smentite o aggiustamenti a seguito di quegli annunci…

  • # 51
    j
     scrive: 

    Mentre se si parla di open souce la cosa è diversa! Puoi benissimo far vedere il sorgente ma usare una licenza che ne impedisca il riutilizzo in ambito commerciale. Inoltre alcune parti possono benissimo essere coperte da brevetto.

    sì ma a parte microsoft (con la reference source license) chi altri lo fa? e a chi gioverebbe? e in quale caso?

    se ci pensi, e consideri quello che ho scritto sopra, concluderesti che se io producessi un’ applicazione commerciale contenente algoritmi e accorgimenti brevettati, e prendessi in considerazione l’ idea di aprire i sorgenti (anche se non mi è chiaro perchè dovrei farlo, visto che andrebbe contro i miei interessi), in realtà mi converrebbe permettere proprio il riutilizzo commerciale e impedire quello gratuito
    partendo dal presupposto che il fatto che altri accedano alla mia proprietà intellettuale imlica una perdita di competitività del mio prodotto, chi la riusa in un programma commerciale closed source (a sua volta fonte di introiti) può versarmi delle royalties consentendomi di compensare, al contrario di chi la riusa in programmi free sw – che oltre a non corrispondermi royalties, la ridiffonde a terzi che a loro volta non mi versano royalties, quindi il danno nel secondo caso è maggiore

    Poi la diffusione tu la valuti solo in ambito desktop!

    perchè sotto certi aspetti è l’ ambito più importante, in termini di numeri, e perchè è quello in cui si richiedono piattaforme più complete funzionalmente e versatili (quindi complesse) e in cui qualità e “viability” (“praticabilità” per l’ utenza) delle soluzioni correntemente disponibili, sono messe più alla prova

    vediamo quanti server o router montano un kernel linux e facciamo i conti!

    in effetti potrebbe essere interessante fare delle stime, visto che in entrambi i casi si divide il mercato con altri sistemi, alcuni proprietari, e da altri è quasi del tutto o del tutto assente…

    magari consideriamo anche quanti programmi sn compilati con il compilatore di stallman, rimarrai sbalordito!
    visto che molto software (free ma non solo) è legato a GCC (nel senso di sfruttarne le estensioni e le preprocessor directive non standard, e richiedendo quindi gcc per essere compilato), così come molto sw free per linux ma non solo (per dire, quando mi è servita una build di ffmpeg /libavcodec su windows ho dovuto usare mingw – che come saprai è un port di gcc)
    visto che per certi sistemi operativi (tipicamente posix based o posix compatible ) e certe architetture quello gnu è (per un motivo o per l’ altro) l’ unico compilatore c gratuito a disposizione, o l’ unico attivamente supportato,
    e visto che quindi al momento gcc sta alle piattaforme != wintel (e al sw che vi gira su) come MSVC sta a windows (e al sw che vi gira su),
    no, non mi stupirei

    ciò non toglie che comunque si tratti di un compilatore “vecchio” sotto ogni punto di vista, concettuale, architetturale ed effettivo…

    Inoltre c’è molta confusione fra linux, gnu, open souce e software proprietario. Così è impossibile fare discussioni che portano a qualcosa.

    può essere e di questo mi scuso
    per chiarezza, quando parlavo di open source in questo contesto mi riferivo sempre al cosiddetto “free and open source software” (foss, coperto da gpl)

  • # 52
    zephyr83
     scrive: 

    @J

    Ripeto, dov’è il problema se ti fanno vedere il sorgente? Apple per gran parte del proprio sistema operativo lo fa vedere eppure nn mi sembra sia un problema! Inoltre alcune parti di codice si possono sempre coprire da brevetti per maggior tutela. Vuoi il nome di un prodotto commerciale open source? QT! trolltech viveva di quello e diversi programmi proprietari come Opera e Adobe Elements (e questo si paga) lo usano…viene quindi pagata la licenza commerciale. Ora trolltech nn esiste più, è stata acquisita da nokia proprio per le QT (che continuano ad essere un software open source con licenza multipla anche per l’ambito commerciale). Ti basta come esempio? Eppure nn mi sembra che altri abbiano “approfittato” del lavoro di trolltech per fare qualcosa di simile e rivenderlo!
    Open source è una cosa, software libero (come è inteso dalla FSF) è un altro. Cn la GPL tu puoi benissimo vendere un programma ma io poi cn i sorgenti posso farci quello che voglio, anche realizzare un’applicazione quasi identica e distribuirla gratuitamente. Ecco questo per me si che è un problema per un software commerciale. Inoltre tutto quello che entra in stretto contatto il programma deve essere a sua volta sotto licenza GPL (o una compatibile). Inoltre anche microsoft ha iniziato a rendere disponibile il codice di alcuni suoi progetti. Silverlight ad esempio, puoi realizzare anche una tua versione versione alternativa ma nn puoi usare liberamente i codec proprietari (a meno di pagare). Solo novell ha il permesso di farlo con moonlight. ooxml ha alcune parti coperte da brevetto!

    Quando stallman lavorara nel laboratorio di intelligenza artificiale del MIT le grosse aziende nn puntavano tanto sul software ma sull’hardware! Si iniziò successivamente, verso il finire degli anni 70 a intravedere enormi possibilità di guadagno anche da parte del software, considerato un componente importante per l’hardware. Tutto infatti iniziò per il driver di una stampante laser! era solito per alcune aziende regalare hardware (spesso quasi proptotipi) a università e centri di ricerca rilasciando anche tutte le informazioni necessari. Chi le utilizzava spesso riusciva anche a sistemare eventuali problemi o a migliorare alcune funzioni rigirando poi il tutto all’azienda che a sua volta traeva ovviamente vantaggio da questo lavoro….era una “prassi comune”. Nessun obbligo, ma funzionava così senza troppe “pippe mentali”. Era un po’ anche alla base della “cultura hacker”. Tutto cambiò quando Stallman, per risolvere l’inconveniente dell’inceppamento della carta su una stampante laser (super tecnologica per quei tempi) cercò inutilmente informazioni relative al firmware. il suo scopo ovviamente nn era quello di risolvere a livello “meccanico” il problema, ma di inviare l’informazione di inceppamento a tutti gli utenti che stavano inviando la richiesta di stampa così che qualcuno poteva andare subito a controllare e risolvere manualmente l’inconveniente. Purtroppo nn trovò le informazioni necessarie e nn si preoccupò neanche di chiederle alla xerox (nn voleva scomodarli per così “poco”, già avevano fatto un regalone, era meglio nn rompere per una sciocchezza simile). Però ebbe l’occazione per incontrare un ex dipendente xerox che aveva lavorato proprio su quella stampante e ora si trovava a ricoprire un ruolo (mi sembra come docente) all’università Carnegie Mellon. Robert Sproull (nn c’è la certezza al 100% che sia lui perché Stallman il suo nome nn se lo ricordava e anche Sproull nn ha ricordo dell’accaduto, ma dalle informazioni che si hanno dovrebbe essere proprio lui) nn diede alcuna informazione a Stallman perché aveva promesso all’azienda di nn fornire copie o informazioni ad altre persone. La xerox aveva deciso di commercializzare quella stampante laser molto evoluta e il software di gestione era un componente molto importante. Stallman ci rimase malissimo, nn gli era mai capitata una cosa del genere nn sapeva spiegarsela! Prima di allora nn si era mai fatto certi “problemi” e lui stesso disse che probabilmente, nei panni di Sproull avrebbe fatto la stessa identica cosa senza neanche farci proprio caso. Ma la sensazione che provò dopo quel rifiuto gli fece vedere tutto in maniera diversa! Nn voleva trovarsi un giorno a dover far la stessa cosa nei confronti di un altro “collega”. Da quel momento inizio a pensare al “software libero” e ovviamente ci vollero anni e anni! mi sembra normale che GNU sia nato agli inizi degli anni 80. Tra l’altro in quel periodo iniziarono a venir prodotti i primi computer a livello commerciale (anche se nn erano certo alla potata di tutti).
    Per criticare aspramente Stallman bisognerebbe conoscere certi aspetti della sua vita, dell’infanzia, del suo carattere particolare, l’ambiente in cui è vissuto e cresciuto, soprattutto l’ambiente “hacker” del MIT dove alla base del pensiero c’era la condivisione di informazioni e materiale per tutti, nn solo per pochi! Si arrivava addirittura a “forzare” le porte chiuse di docenti e ricercatori che osavano privare inutilmente tutti di un computer. Ad harvard le cose erano ben diverse, bisognava mettersi in “fila” per usare il computer e c’erano precise gerarchie.
    Ovviamente si può nn essere d’accordo con il suo pensiero e possono nn piacere i suoi modi ma almeno bisogna conoscerlo sto pensiero e capire perché lui si accanisce tanto!
    Ti consiglio vivamente quel libro che ho linkato, si capiscono tante cose! mi sento di criticare molto meno stallman di come facevo un tempo. Inoltre senza di lui molto probabilmente ora nn sarei qui su frugalware a scrivere questo commento :)

  • # 53
    Cesare Di Mauro
     scrive: 

    @Ikon: E’ tutto un altro mondo e se non fate giochini
    Certo. E’ bellissimo, ma…

    Ora non sono più soggetto alle perverse logiche di mercato di Microsoft
    Quali sarebbero?

    non devo farmi 1000 problemi per cambiare sistema operativo quando esce quello nuovo, perchè i drivers non ricordo più nemmeno cosa siano!
    Non vedo quale sia il problema. Anzi, ci sono più driver per Windows che per qualunque altro s.o..

    Inoltre è tutto gratis e sinceramente molti programmi sono migliori di quelli che esistevano su Windows…
    Se fossero molti le percentuali di penetrazione del mercato di Linux e Windows sarebbero ribaltate.

    Meglio perdere 2 mesi ad imparare Linux, che 1 settimana ogni anno per capire come è strutturato il nuovo Windows!!!

    C’è gente per cui il tempo ha un valore e altri no (e, quindi, lo sprecano come meglio credono).

    Comunque non escono versioni nuove di Windows ogni anno.

    Al contrario delle distro Linux, che spuntano fuori come i funghi, e le stesse singole distro vengono aggiornate nel giro di qualche mese (la tua Ubuntu ogni 6).

    Adesso vi lascio, vado a farmi una partita a Starcraft su Ubuntu!
    Non sapevo fosse disponibile per Linux. In genere con Linux non si gioca, perché è un s.o. serio. Infatti l’unica software house che è nata per sviluppare giochi soltanto per Linux è fallita.

    @zephyr83: Nn capisco questo odio verso stallman
    Non capisco perché trai queste conclusoni assurde ogni volta che parliamo. Anzi, sì, lo capisco: è la tua mania di persecuzione.

    Non si può spiegare altrimenti, visto che per te una persona non può esprimere un giudizio su una persona, se non la odia, se non ce l’ha con lei, se non ci deve andare necessariamente contro, ecc. ecc.

    da come ne parli per me nn conosci minimamente il suo pensiero e quale è stata la sua vita, così come J.
    Conosco la storia di Stallman da parecchio tempo. E niente ti autorizza a trarre conclusioni (del tutto errate) sul vissuto dei tuoi interlocutori, visto che non ci frequentiamo e non so nemmeno come ti chiami realmente.

    A quanto pare tu conosci me molto meglio di quanto non mi conosca io stesso…

    Parli di incoerenza per .net e dotgnu? bene nn hai capito il discorso di fondo! io nn ci vedo incoerenza, mi spieghi dove sarebbe sta incoerenza? E perché dovrebbe criticare .NET a 360 gradi visto che è un ottimo ambiente di sviluppo? Condanna quello che è coperto da brevetti e usa una licenza che nn permette il libero utilizzo di un software. Infatti dotnet si prefigge il compito di superare questi “ostacoli” e poter usare un sistema simile a .net (che è cmq molto valido) nell’ambito del software libero. Mica stanno cercando di implementare al 100% .Net come quelli di mono e a loro nn frega mica della compatibiltà cn le applicazioni realizzate con il framwork di microsoft! Dove sta l’incoerenza? è incoerente per l’idea che ti sei fatto tu di stallman e del mondo open source.
    Su questo m’ha anticipato j, che è stato fin troppo chiaro.

    Di stallman puoi dire tutto ma che manchi di onestà intellettuale è una trollata bella e buona, al pari di chi dice che windows fa schifo a prescindere!!!
    Guarda, o è un disonesto (come dimostrerebbe DotGNU), oppure è semplicemente un ignorante di prima categoria.

    Perché se si scaglia ciecamente contro .NET sconsigliando di programmare in C# vuol dire che non s’è preso nemmeno la briga di andare a vedere cosa significhi l’acronimo CLR, che sta alla base di .NET e di TUTTI i linguaggi di programmazione che ci girano e ci gireranno sopra: Common Language Runtime. Quindi non C# Languague Reference.

    Poi che c’entra Hurd? quello è un kernel, nn sn mai riusciti a portarlo a termine ma è arrivato linux!
    Non ci sono riusciti per incapacità, a questo punto, visto che dopo 25 anni è ancora in alpha.

    E delle persone con un minimo di raziocinio l’avrebbero abbandonato da tempo, anziché parlarne come se fosse un prodotto reale.

    E’ molto peggio di Duke Nukem Forever…

    E il resto di GNU dove lo metti? Penso tu saprai quanti programmi nei vari ambiti sn compilati con il compilatore realizzato da stallman!!!
    Anche i miei. E allora? Esistevano, esistono, ed esisteranno altri compilatori, strumenti di sviluppo, ecc. NON GNU.

    Non è che l’informatica si ferma senza GNU…

    E sui driver nn so quante volte devo ancora dirlo!
    Che ti credi? Lo stesso vale per me.

    IL driver 2d si è fatto SUBITO, altro che due anni (e poi neanche sn due anni ancora) e già c’era prima!
    Appunto. In due anni e col driver 2D già pronto ancora non si parla del 3D.

    Per il 3D ci lavorano da meno di 7 mesi e i lavori dovrebbero essere abbastanza avanti.
    Da quel che ho letto hanno ancora un sacco di problemi. E per fortuna che ci lavora gente di AMD e Novell, perché non oso immaginare in che stato sarebbe ridotto il supporto al 3D.

    Cmq mi spieghi cosa te ne fai del 3D se poi nn riesci neanche a vedere un video perché da problemi? è questo che succede con i driver proprietari di ati. Meglio un driver a cui manca solo il supporto 3D ma che ti permette di usare il tuo computer e fare tutto tranne una unica cosa oppure è meglio un driver che ti permette di sfruttare il 3D ma poi ti da problemi nell’uso quotidiano? Per me la risposta è ovvia!
    Nulla da dire, ci mancherebbe.

    Certo che definire saltimbanchi gli sviluppatori di linux ce ne vuole? pensi che siano così incapaci?
    Ho solo detto che sono arroganti e ottusi nella loro mania di seguire la loro religione (perché di questo si tratta, alla fine).

    Al solito, arrivi a conclusioni tutte tue cercando di mettermi in bocca cose che non ho mai detto.

    pensi di essere migliore di loro?
    Chi lo sa. Ma sicuramente sono dotato di maggior buon senso.

    anche questa a me sembra una trollata bella e buona! Critichi una cosa che nn hai minimamente compreso, nn sn certo loro a dover star zitti!
    Qui chi non comprende le parole che scrive la gente sei tu, che ti ostini a riportare conclusioni tutte tue.

    Ed è un comportamento che mi dà molto fastidio. Sei pregato, pertanto, di non mettermi in bocca cose che non ho detto.

    Anzi, se vuoi farlo, quotami e DIMOSTRA che dalle mie parole si arriva a certe conclusioni.

    Nello specifico, DIMOSTRAMI cos’è che non avrei compreso, altrimenti fammi la cortesia di star zitto tu, che hai stancato con questo tuo comportamento scorretto.

    Ripeto, dov’è il problema se ti fanno vedere il sorgente? Apple per gran parte del proprio sistema operativo lo fa vedere eppure nn mi sembra sia un problema!
    Apple fa vedere solo ciò che le fa comodo (Darwin), oppure quello che è costretta a far vedere (WebKit e Safari). Il resto se lo tiene gelosamente nel cassetto (vedi l’interfaccia grafica).

    Ovviamente fanno così perché sono una massa di deficienti, perché non hanno capito gli innegabili vantaggi che si ha nel rilasciare i loro sorgenti.

    Ovviamente si può nn essere d’accordo con il suo pensiero e possono nn piacere i suoi modi ma almeno bisogna conoscerlo sto pensiero e capire perché lui si accanisce tanto!
    Qui l’unico che non conosce il pensiero degli altri sei tu. Anzi, il tuo problema è che prima di tutto non leggi quello che scrivono (io m’ero già pronunciato su Stallman), e secondo che pretendi sapere il grado di conoscenza dei tuoi interlocutori su certi argomenti… meglio di loro stessi.

    In poche parole, e se non fossi stato già abbastanza chiaro, la devi smettere di fare assunzioni su persone che non conosci e di cui non conosci nemmeno il pensiero. Chiaro?

  • # 54
    zephyr83
     scrive: 

    @Cesare Di Mauro

    Scusa ma uno che dice che Stallman è un deficiente, un pazzo, che dovrebbe “sparire”, che è qua, che è la….nn lo odia? ah bhe allora ci manca poco! E le mie sarebbero conclusioni assurde? Dici a me che nn conosco il pensiero altrui e traggo conclusioni mie quanto TU (come J) fai la stessa cosa nei confronti di stallman e addirittura di un’intera community?!!?!?! Vuoi che ti dimostri che nn hai capito minimamente quello che critichi? Eccoti accontentato:
    “Ho solo detto che sono arroganti e ottusi nella loro mania di seguire la loro religione (perché di questo si tratta, alla fine).”
    Ovviamente nn ci vedrai niente di strano, ma purtroppo nn sn così bravo da riuscirti a spiegare in cosa sbagli, ci ho provato ma nn c’è stato nulla da fare! Ma il livello è lo stesso se io dicessi che alla microsoft sn una sorta di incapaci che i loro software fanno schifo e windows è così diffuso solo perché installato di prepotenza su tutti i computer! Io ovviamente so cosa c’è che nn va in quello che ho scritto ma il livello della mia affermazione è lo stesso della tua.
    Poi ribatti ancora su dotgnu e .net, ho spiegato dove sta la differenza e il motivo per cui stallman nn è incoerente ma nn ci posso fare niente se nn capisci quello che ti dico! Sicuramente nn sn bravo ad espormi ma secondo me è perché mancano i “concetti di base”. Vediamo se qui sn più chiari http://www.oneopensource.it/30/06/2009/stallman-sconsiglia-lutilizzo-di-cmono/
    Stallman nn ha nulla contro la realizzazioni di applicazini LIBERE tramite mono o dotgnu, anche scritte in C#. Ma sconsiglia di dipendere troppo da microsoft e di evitare ogni “contaminazione” con le parti coperte da brevetto che in futuro potrebbero creare problemi. Ovviamente tutto questo prima che microsoft prendesse una decisione chiara (anche se tuttavia qualche punto sembra aperto a diverse interpretazioni…..ma nn ho approfondito maggiormente). E per questo critica la decisione delle maggiori distro linux di includere nell’installazione di default Mono che cerca una implementazione al 100% di .Net, anche delle parti NON standardizzate (cosa che se nn sbaglio nn avviene con dotGnu).
    ma se nn si capisce che per stallman sta storia del software libero (come ha coniato lui il termine) è fondamentale è inutile continuare a discutere! Nn sarebbe stato contrario neanche a un formato come ooxml se nn ci fossero stati di mezzo dei brevetti.

    Per Hurt potresti aver ragione, magari hanno solo deciso di puntare troppo in alto…..poi con l’arrivo di linux il progetto perse la priorità che aveva visto che c’era già qualcosa di funzionante con la stessa “filosofia”. Cmq se fossi informato meglio sapresti che Stallman ha iniziato il progetto poi l’ha lasciato a un altro sviluppatore che lo chiamò HURD. Stallman voleva chiamarlo Alix, come la sua ragazza (anche amministratrice di un sistema unix)

  • # 55
    Marco
     scrive: 

    Non mi inserisco nella vostra discussione, volevo solo dire che sia zephyr83 che Cesare stanno su posizioni decisamente troppo estremiste, anche se condivido di piu’ la linea di zephyr (IMHO IMHO IMHO spero che sia chiaro, e credo che Cesare non abbia una mentalita’ sufficientemente “aperta” per comprendere appieno come funziona il meccanismo del software FOSS).
    Posto solo due recenti news:
    http://www.microsoft.com/presspass/features/2009/Jul09/07-20LinuxQA.mspx
    http://www.newsobserver.com/business/story/1612209.html
    Poi ognuno tragga le sue conclusioni…

  • # 56
    j
     scrive: 

    Vuoi il nome di un prodotto commerciale open source? QT! trolltech viveva di quello e diversi programmi proprietari come Opera e Adobe Elements (e questo si paga) lo usano…viene quindi pagata la licenza commerciale.

    ma QT è un toolkit per interfaccie grafiche, quindi un software orizzontale, prodotto da una società che non era preoccupata che altri ne leggessero i sorgenti e magari lo forkassero ( altrimenti non avrebbe scelto la gpl … ) non proprio quello a cui mi riferivo prima… speravo in un esempio di applicazione commerciale (magari di un certo prezzo), professionale, quindi verticale (quindi tipicamente contenente algoritmi non banali e/o accorgimenti brevettati) il cui produttore, a dispetto del suo valore, ne renda disponibile a tutti il sorgente (quindi non sia preoccupato della “fuga” di proprietà intellettuale)
    cioè speravo di apprendere dell’ esistenza di un Maya o Houdini (sidefx houdini master, 8000 $ a licenza) open source, che finora ho ignorato… :(

    Cn la GPL tu puoi benissimo vendere un programma ma io poi cn i sorgenti posso farci quello che voglio, anche realizzare un’applicazione quasi identica e distribuirla gratuitamente.

    oltre a ciò, se sviluppassi un mio programma di fotoritocco e questo includesse la lista dei colori Pantone con relativi dati colorimetrici e algoritmi per la riproduzione fedele su carta (mi scuserai se ci torno, è diventato il mio esempio preferito), poi dovrei versare a Pantone delle royalties per ogni istanza di quei dati e algoritmi in circolazione – ma se pubblicassi il programma sotto gpl e chiunque ne entri in possesso (a partire da chi lo acquista da me) può ridistribuirlo, le royalties versate non corrisponderebbero alla base installata effettiva, e io avrei violato gli accordi di licensing

    Inoltre tutto quello che entra in stretto contatto il programma deve essere a sua volta sotto licenza GPL (o una compatibile).

    infatti ed è il motivo per cui la gpl è tipicamente incompatibile con l’ implementazione previi accordi commerciali, di proprietà intellettuale altrui…

    Per criticare aspramente Stallman bisognerebbe conoscere certi aspetti della sua vita, dell’infanzia, del suo carattere particolare, l’ambiente in cui è vissuto e cresciuto, soprattutto l’ambiente “hacker” [cut]
    ma il punto è proprio questo, dell’ infanzia vita e carattere dell’ hippy barbuto ho già letto in passato e NON voglio doverli ripercorrere adesso
    non sono strumentali al poter fare un discorso concreto e pragmatico sui sistemi operativi e sulle licenze con cui sono distribuiti, dal punto di vista di utenti e sviluppatori
    se si parla d’ informatica, e non di personaggi con le loro eroiche imprese e il loro cammino verso il raggiungimento dell’ Illuminazione, novelli Bodhisattva, allora gli aneddoti e gli elementi di colore, per quanto appassionanti, per quanto divertenti, sono del tutto superflui al fine di valutarne le mere implicazioni nel presente e immediato futuro di una filosofia che in passato hanno contribuito a far maturare, ma che ora può essere giudicata in sè e per sè …

  • # 57
    Cesare Di Mauro
     scrive: 

    @zephyr83: Scusa ma uno che dice che Stallman è un deficiente, un pazzo, che dovrebbe “sparire”, che è qua, che è la….nn lo odia? ah bhe allora ci manca poco! E le mie sarebbero conclusioni assurde?
    Direi proprio di sì, perché non hai chiaro il concetto di critica, che confondi con quello di odio. Io ho il diritto di criticare (e ho portato FATTI a tal proposito) senza per questo odiare.

    L’odio lascialo perdere perché non c’entra una mazza. E’ un sentimento nobile che non ha nulla a che vedere con queste cose.

    Mi posso permettere di odiare uno che attenta all’integrità della mia famiglia, dei miei cari, non uno che farnetica assurdità.

    Dici a me che nn conosco il pensiero altrui e traggo conclusioni mie quanto TU (come J) fai la stessa cosa nei confronti di stallman e addirittura di un’intera community?!!?!?!
    Ho riportato dei FATTI a supporto. Tu da certe parole arrivi a roba che non sta né in cielo né in terra, facendo assunzioni sulla conoscenza o meno delle persone con cui parli, e ignorando pure quanto hanno già detto sull’argomento.

    E anche questi sono FATTI.

    Vuoi che ti dimostri che nn hai capito minimamente quello che critichi? Eccoti accontentato:
    “Ho solo detto che sono arroganti e ottusi nella loro mania di seguire la loro religione (perché di questo si tratta, alla fine).”
    Ovviamente nn ci vedrai niente di strano, ma purtroppo nn sn così bravo da riuscirti a spiegare in cosa sbagli, ci ho provato ma nn c’è stato nulla da fare!

    Se non ci riesci non è colpa tua, ma mia che non ho sufficienti capacità mentali per afferare concetti così “complicati”. Non ti preoccupare.

    Poi se, invece, vuoi andare a vedere le dichiarazioni di questi tizi sul tema driver & specifiche, magari parliamo di qualcosa di più concreto, OK?

    Ma il livello è lo stesso se io dicessi che alla microsoft sn una sorta di incapaci che i loro software fanno schifo e windows è così diffuso solo perché installato di prepotenza su tutti i computer! Io ovviamente so cosa c’è che nn va in quello che ho scritto ma il livello della mia affermazione è lo stesso della tua.
    Non mi pare proprio. Io ho SEMPRE giustificato tutto quello che ho scritto. Vedi anche i tizi di KHTML, che al pari degli sviluppatori dei driver del kernel seguono ottusamente la loro ideologia.

    Poi ribatti ancora su dotgnu e .net, ho spiegato dove sta la differenza e il motivo per cui stallman nn è incoerente ma nn ci posso fare niente se nn capisci quello che ti dico! Sicuramente nn sn bravo ad espormi ma secondo me è perché mancano i “concetti di base”. Vediamo se qui sn più chiari http://www.oneopensource.it/30/06/2009/stallman-sconsiglia-lutilizzo-di-cmono/
    Stallman nn ha nulla contro la realizzazioni di applicazini LIBERE tramite mono o dotgnu, anche scritte in C#. Ma sconsiglia di dipendere troppo da microsoft e di evitare ogni “contaminazione” con le parti coperte da brevetto che in futuro potrebbero creare problemi. Ovviamente tutto questo prima che microsoft prendesse una decisione chiara (anche se tuttavia qualche punto sembra aperto a diverse interpretazioni…..ma nn ho approfondito maggiormente). E per questo critica la decisione delle maggiori distro linux di includere nell’installazione di default Mono che cerca una implementazione al 100% di .Net, anche delle parti NON standardizzate (cosa che se nn sbaglio nn avviene con dotGnu).

    Dovresti leggere, invece, la dichiarazione originale di Stallman, che ha riportato j qualche commento fa: http://www.fsf.org/news/dont-depend-on-mono

    Da una parte sentenzia già a partire dal titolo e dalle prime righe dice che è meglio non usare Mono o C#.

    Poi afferma che i problemi riguardano TUTTE le implementazioni di C#, anche quelle libere. E questo perché, secondo lui, Microsoft starebbe complottando qualcosa con brevetti & co.

    Prosegue sperticandosi in lodi sulle implementazioni libere di C#, che sono una buona cosa, come pure i programmi creati con essi perché gireranno su piattaforme libere.

    Continua però dicendo che le applicazioni C# sono rischiose perché se viene a mancare C# andrebbero perse.

    Consiglia quindi di dipendere il meno possibile da C#, per cui è meglio non scrivere programmi con questo linguaggio e, meglio ancora, non includerlo nelle distribuzioni.

    E bada bene: parla di Mono, ma lega tutto al C#, ignorando completamente il concetto di CLR e, quindi, la possibilità di utilizzare un qualunque altro linguaggio che giri sopra al runtime.

    A te le conclusioni.

    ma se nn si capisce che per stallman sta storia del software libero (come ha coniato lui il termine) è fondamentale è inutile continuare a discutere! Nn sarebbe stato contrario neanche a un formato come ooxml se nn ci fossero stati di mezzo dei brevetti.
    Ma guarda che il pensiero di stallman, come pure la sua storia, è charissimo.

    Per Hurt potresti aver ragione, magari hanno solo deciso di puntare troppo in alto…..poi con l’arrivo di linux il progetto perse la priorità che aveva visto che c’era già qualcosa di funzionante con la stessa “filosofia”. Cmq se fossi informato meglio sapresti che Stallman ha iniziato il progetto poi l’ha lasciato a un altro sviluppatore che lo chiamò HURD. Stallman voleva chiamarlo Alix, come la sua ragazza (anche amministratrice di un sistema unix)
    Non cambia nulla: se un progetto è soppiantato da un altro (e non c’è solo Linux, ma una stirpe di s.o. BSD-like, tanto per fare un altro esempio), è inutile continuare a portarlo avanti sprecando risorse.

    @Marco: l’unica cosa da comprendere è quando utilizzare o meno l’open source per un progetto. E’ soltanto una questione di opportunità, come dimostra il tuo link alla notizia di MS che supporta dei driver per Linux.

    Poi è evidente che io la pensi in maniera decisamente diversa da zephyr83, ma di certo non m’è ignota la storia di personaggi come Stallman né tanto meno la filosofia dello sviluppo open source (a cui ho contribuito anch’io, tra l’altro).

  • # 58
    Marco
     scrive: 

    “E’ soltanto una questione di opportunità, come dimostra il tuo link alla notizia di MS che supporta dei driver per Linux.”

    Esattamente, non e’ che la GPL (che io non approvo completamente, btw) sia il bene o il male assoluto (come propagandava la stessa MS fino a poco fa), non ruba il lavoro a nessuno ma anzi, attorno ad essa, e con il tanto vituperato modello di sviluppo, si puo’ fare business a livello del gotha dell’economia mondiale (vabbe’, o quasi ;-). Ultima nota, al lavoro sul kernel di linux c’e’ gente del calibro di Alan Cox, Ingo Molnar, Theodore Tso, lo stesso Torvalds, Robert Love… piu’ altre decine di programmatori riconosciuti per le loro qualita’. Saltimbanchi purtroppo ce ne sono a bizzeffe, e non lavorano solo su linux.

  • # 59
    Cesare Di Mauro
     scrive: 

    Condivido in toto.

    P.S. Saltimbanchi era riferito a chi ha preso quelle posizioni ottuse dettate dall’ideologia. Non a tutti, ovviamente, e me ne guarderei bene.

  • # 60
    j
     scrive: 

    [...]Posto solo due recenti news:
    http://www.microsoft.com/presspass/features/2009/Jul09/07-20LinuxQA.mspx
    [...]
    Poi ognuno tragga le sue conclusioni…

    i driver che microsoft avrebbe contribuito (e che comunque non è detto finiscano in mainline, ma comunque) implementano un layer di PARAvirtualizzazione nel kernel per far sì che Linux possa girare in modo efficiente su macchine virtuali compatibili con le hypercalls Hyper-V (di microsoft)
    e quindi sono a beneficio di windows server 2008 (che tra le altre cose supporta servizi di virtualizzazione “out of the box”) e dei suoi utenti effettivi o potenziali – magari quelli che lo prenderebbero in considerazione nell’ ottica di un migration plan DA linux sul proprio server mid/low end (sì, non è così assurdo) ma magari erano trattenuti proprio dalle prestazioni di linux sotto hypervisor (a proposito di “barriere”, in senso commerciale, per l’ adozione di un prodotto…)

    microsoft ha fatto una mossa furba, perchè ne ha eliminata una con relativamente poco codice (di cui peraltro non ha più la responsabilità di manutenerlo direttamente una volta parte del kernel – così ome non è più responsabile per eventuali problemi e incompatibilità con versioni del kernel future o diverse, la cui colpa sarà a tutti gli effetti riconducibile a chi porta avanti il progetto del kernel)

    la mia conclusione, è che l’ industria è come al solito, alquanto pragmatica…

    Esattamente, non e’ che la GPL (che io non approvo completamente, btw) sia il bene o il male assoluto (come propagandava la stessa MS fino a poco fa), non ruba il lavoro a nessuno ma anzi, attorno ad essa, e con il tanto vituperato modello di sviluppo, si puo’ fare business a livello del gotha dell’economia mondiale (vabbe’, o quasi ;-).

    la gpl è inadatta per applicazioni verticali il cui valore non sia solo nel codice quanto negli algoeitmi, know how e proprietà intellettuale a vario titolo inclusi – ma per sw di tipo orizzontale, e/o progetti (quale appunto un sistema operativo) in cui confluiscono gli interessi di molti attori del mercato che a loro volta necessiterebbero di un campo neutro per cooperare, una licenza come la gpl non fa altro che fornire quel terreno neutrale e mettere tutti allo stesso livello ( più o meno come farebbe l’ ingresso in un consorzio industriale, ma con meno formalità )

  • # 61
    Marco
     scrive: 

    “la gpl è inadatta per applicazioni verticali”

    Rimango dubbioso. La virtualizzazione gia’ di per se sarebbe un’applicazione verticale. Non facciamo la conta delle applicazioni verticali coperte da GPL altrimenti non finiamo piu’.
    Quello che ora viene definito pragmatismo (e la definizione ci sta tutta, nessuna obiezione) arriva da un’azienda che, parole testuali, diceva “Linux is a cancer that attaches itself in an intellectual property sense to everything it touches”. Hanno cambiato idea? Probabilmente no, hanno solo visto un’ulteriore opportunita’ di business, e certamente non li biasimo per questo.

  • # 62
    j
     scrive: 

    dicevo applicazioni verticali, il cui valore stia non (solo) nel codice quanto nella IP di terzi (per la quale quidni si debbano versare royalties ) o propria (la cui creazione ha quindi richiesto investimenti, da recuperare)
    per favore, leggiamo le frasi per intero ;-)

    Non facciamo la conta delle applicazioni verticali coperte da GPL altrimenti non finiamo piu’.

    applicazioni al tempo stesso: verticali, con risorse e studio consistenti confluiti nella loro creazione (un photoshop, o un houdini, o per dire, il firmware di un apparato di controllo avionico o automotive) coperte da gpl (o in effetti da qualsiasi licenza che permetta di accedere ai sorgenti) E commerciali (vendute a un tot a copia, non come “contratto di supporto” slegato dal numero di installazioni o “donazioni” una tantum) – personalmente non ne ho ancora viste
    speravo in qualche esempio per chiudere il discorso, ma non è ancora giunto…

    Hanno cambiato idea? Probabilmente no, hanno solo visto un’ulteriore opportunita’ di business, e certamente non li biasimo per questo.

    su questo sono pienamente d’ accordo, d’ altra parte è quello che intendevo prima ;-)
    non hanno cambiato idea, per loro linux è sempre il nemico – ma l’ utenza può aver bisogno di far girare servizi basati su linux all’ interno di macchine virtuali, e dare a windows server la possibilità di virtualizzare linux vuol dire poter vendere licenze di WS2008, a clienti che altrimenti avrebbero usato soluzioni diverse
    con la patch sotto gpl2 hanno solo dimostrato di essere capaci di perseguire i propri obiettivi giocando alle stesse regole della comunità linux, se è il caso

  • # 63
    Marco
     scrive: 

    “per favore, leggiamo le frasi per intero ;-)”

    Avevo inteso diversamente, non e’ che non avevo letto la frase… cmq grazie per la precisazione.

    “[...] coperte da gpl (o in effetti da qualsiasi licenza che permetta di accedere ai sorgenti)”

    Beh se parliamo di open source con licenze non free, ce ne sono direi, anche Microsoft ne offre:
    http://www.microsoft.com/opensource/default.aspx

    “E commerciali (vendute a un tot a copia, non come “contratto di supporto””

    Il contratto a supporto credo che sia lo strumento piu’ usato per valorizzare applicazioni GPL, e spesso e’ difficilmente scindibile dall’offerta. Molti software hanno versioni “community” ed “enterprise”, in cui la seconda normalmente viene proprio venduta in formato binario e puo’ contenere altro software “non free”. Non ci sono le scatole sugli scaffali dei supermercati, ma alla fine il concetto non cambia di molto.

  • # 64
    zephyr83
     scrive: 

    @Marco

    Bhe io estremista no dai :) Sto cercando di “difendere” Stallman e spiegare (nei limiti delle mie possibilità) il suo pensiero e perché è così accanito! Ma nn ho mai detto di condividere totalmente quello che dice. Anzi più volte ho detto che sn per la massima libertà, ognuno può fare quello che vuole e scegliere come distribuire il proprio programma. Sn più per l’open source in generale (nn ci vedo niente di male a far vedere il codice e a quanto pare piano piano anche altri iniziano a capirlo) che per il software libero (come è inteso dalla FSF); tra l’altro come browser uso Open, non firefox o altri open source (o “liberi”).
    Però dai commenti di alcuni sembra tutto un gioco, ci lavorano incapaci, nn andranno mai da nessuna parte, si storce il pensiero e la filosofia…difficile rimanere “impassibili”, ma nn mi ritengo affatto un estremista!

    @J
    Come ho detto nn credo possa esistere un softfware a pagamento sotto GPL tramite il quale lo sviluppatore speri di guadagnarci. Possono esistere software a pagamento in GPL dove in realtà si paga altro come il supporto (vedi le distribuzioni di redhat e novell in campo enterprise). Però questo è per via della gpl! il software potrebbe anche essere open source ma con una licenza meno restrittiva come ad esempio BSD oppure quelle di microsoft o apple. Se qualcosa è coperta da brevetto nn c’è mica problema a farla vedere. Penso che in futuro software commerciale open source aumenterà di numero…..software libero sotto gpl invece in vendita mi sa che difficilmente lo si vedrà (a meno che l’azienda nn venda più che altro un servizio collegato).
    Il problema relativo a Pantone c’è solo se vuoi distribuire gratuitamente il tuo software e ovviamente se usi la GPL (in questo caso NON puoi usarla, il problema si risolve da solo). Ma far vedere il codice e usare una licenza commerciale a me sembra fattibilissimo!
    Mi piacerebbe approfondire questa questione perché nn mi è molto chiaro, Pantone ha brevettato i “colori”? In un’altra discussione avevi fatto l’esempio dei colori delle bandiere ma nn riesco a capire che problema c’è a riprodurre lo stesso identico colore cn un qualsiasi programma di grafica!!!

    @Cesare Di Mauro
    ok nn è odio ma almeno disprezzo si può dire? Cmq tu ripoti fatti ma poi trai le conclusioni che vuoi tu! Perché da quello che hai ripotato io mi sn fatto un’opinione diversa, e il link che hai postato tu dice le stesse cose di quello che ho riportato io. La questione è sfociata più apertamente e seriamente quando le magiori distro, debian compresa (e da lei nn ce lo si aspettava) hanno introdotto mono nelle installazioni di default! Così si che c’è il pericolo che si dipenda eccessivamente da microsoft. si sta incentivando troppo pesantemente l’utilizzo di mono e di C#, cosa che prima nn avveniva. Tra l’altro mono vuole cercare di essere compatibile al 100% con .Net, implementandando anche le parti NON standardizzate!
    Il “concetto” di CLR lo comprende perfettamente, ma con mono la piga è tutto sul perfetto implemento di .Net, si usa C#, è stato realizzato gtk# e la maggior parte delle nuove applicazioni per gnome vengono realizzate appunto con mono c# e gtk#! mi sembra normale, dal suo punta di vista, essere preoccupati! Inoltre prima dei suoi interventi microsoft nn aveva affatto chiarito la questione sulle parti coperte da prevetto!
    Anche per la questione khtml e webkit ti ho espresso il mio punto di vista….tu nn hai riportato fatti, hai solo espresso l’idea che ti eri fatto tu! nn è ottusità per me quella degli sviluppatori khtml, l’alternativa sarebbe lavorare come subordinati di apple sperando che le proprie migliorie possano esser prese in considerazione dalla casa di cupertino. Inoltre dal lato umano un certa sfrustazione in questa cirocstanza la potrei capire benissimo! Magari con l’entrata in gioco di google le cose potrebbero cambiare! In ogni caso browser basati su webkit in linux si possono avere senza problemi, konqueror compreso e ancora nn si sa quale sarà in futuro quello predefinito di kde4!

  • # 65
    zephyr83
     scrive: 

    Vorrei anche aggiungere qualche considerazione riguardo la questione di microsoft e dei driver realizzati per il kernel linux sotto GPL 2. Ovviamente microsoft l’ha fatto perché alla fine le conveniva così (come ha detto J), ma è stata “costretta” a rilasciare i driver sotto gpl 2 proprio perché il kernel linux è sotto questa licenza e se volevano che venissero inglobati ufficialmente NON POTEVANO FARE ALTRIMENTI! Se fosse stata usata un’altra licenza molto probabilmente le cose sarebbero andate diverse e invece a essere così “ottusi” e arroganti “quelli di linux” alla fine hanno raggiunto il proprio scopo!
    inoltre tutto questo dimostra anche il successo di linux in certi ambiti e il fatto che siano gli altri a doversi adeguare……forse nn sn tutti saltimbanchi arroganti!
    Secondo me la gpl per alcune cose è importante, appunto come per un kernel e driver realizzati in questa maniera diventano utili a TUTTI, anche ad altri sistemi operativi e a chi realizza l’hardware che può ampliare il proprio bacino di utenza, nn ci vedo proprio nulla di male.
    Per altre applicazioni è diverso e almeno personalmente nn mi sento di appoggiare la gpl sempre! è qui che nasce la differenza fra open source e software libero (stallman e FSF). ed è anche uno dei motivi per cui linux è ancora sotto gpl 2 anziché 3.

  • # 66
    j
     scrive: 

    Ma far vedere il codice e usare una licenza commerciale a me sembra fattibilissimo!

    a patto di rendere i sorgenti visibili solo agli utenti licenziati, di imporre delle restrizioni sul riuso in altri progetti, del codice e degli algortmi ivi contenuti – o di mettere in chiaro da quali brevetti sono eventualmente coperti – per evitare il rischio di “fughe” di proprietà intellettuale che come dicevo prima, ritengo mi possano danneggiare – allora sì, ma devo usare una licenza ad hoc che non sarà la eula nè la gpl…

    ma ho l’ impressione che l’ utente finale, potendo esaminare il mio codice e accertare la mia buona fede di non distribuire sw contenente backdoor intenzionali, potendo magari provare a risolvere i bug che io non ho trovato, e ad aggiungere funzionalità (ma dovendo farlo ad uso privato, senza cedere il risultato ad altri) sarebbe l’ unico ad avvantaggiarsi della disponibilità dei sorgenti
    se lo ritieni sufficiente…

    Mi piacerebbe approfondire questa questione perché nn mi è molto chiaro, Pantone ha brevettato i “colori”?
    a quanto ne so, il Pantone Matching System in uso fin dagli ani 50 è in sostanza un database che, per alcune migliaia (quelli originari standard sono 1144, recentemente ne sono stati aggiunti circa 2000) di colori (meglio, tinte) raggruppati in famiglie, associa codici univoci sia nominativi (ad esempio Scarlet Red) sia numerici (ad esempio 18-1662), alla resa effettiva della tinta stessa (ora, non mi sembra pendano brevetti, ma un copyright sul database e sui dati necessari alla riproduzione dei campioni, sì, quindi occore una licenza per inserirli in un’ applicazione)
    infatti a parte colorimetri e sw di calibrazione, i principali “prodotti” acquistabili dal sito pantone.com sono le cosiddete “mazzette” (o i raccoglitori per il set completo) di campioni cromatici (swatches) in cartoncino patinato o stoffa (che peraltro andrebbero acquistati ogni anno per avere un riferimento affidabile, visto che la stampa rischia di sbiadire nel tempo)
    in pratica, il pms sta al colore come il metro campione conservato a sevres sta al metro unità di misura…

    In un’altra discussione avevi fatto l’esempio dei colori delle bandiere ma nn riesco a capire che problema c’è a riprodurre lo stesso identico colore cn un qualsiasi programma di grafica!!!

    il programma di grafica deve innanzitutto conoscere il colore desiderato, quindi contenere una copia della lista dei colori con rispettivi dati colorimetrici nello spazio colore pantone;
    dopodichè deve poter maneggiare, alla pari di altri spazi colore di uso comune (come RGB, CMYK, CIE), quello in cui sono rappresentati i colori pantone (composto da una base esacromatica comprendente base arancione e verde da quando si è notato che alcuni colori già tra quelli standard non erano riproducibili nel normale cmyk) per poi riprodurli fedelmente sull’ hw a disposizione (tipicamente basato su rgb o cmyk)
    – il che può implicare anche progettare l’ applicazione grafica in modo che la sua rappresentazione dei dati in memoria, astragga gli spazi colore supportati o almeno non sia vincolata a uno in particolare…

  • # 67
    Marco
     scrive: 

    @zephyr
    Era cosi’ per dire ovviamente, non voglio etichettare nessuno ;-)
    Non lo conosco direttamente ma apprezzo molto Cesare e sono convinto che avra’ i suoi buoni motivi per pensarla cosi’ (che poi non e’ nemmeno tanto strano se ci pensi bene).
    @j
    Tanto per andare OT, i Pantone li conosco bene avendo fatto la gavetta in uno studio fotografico dove mi occupavo soprattutto di prestampa. Occhio che molti colori Pantone non rientrano nello spazio cmyk ne tantomeno rgb, per cui a video si spesso si vede solo una lontana approssimazione (ad es. colori simil fluorescenti, perlati, metallizzati, o particolarmente sgargianti, ecc.) e quando si va in stampa (che poi in gergo si chiamano “colori speciali”) si fa (facevano, adesso si “stampano” direttamente le lastre) una pellicola in piu’ per ogni colore speciale. Ovvero a video vedi un coloraccio e devi far riferimento alla mazzetta per vedere il risultato finale. Altra cosa, nel file da stampare non e’ codificata alcuna informazione riguardo al Pantone, e per il tipografo sara’ solamente una pellicola/lastra/passaggio in macchina in piu’ con il colore desiderato dal cliente.

  • # 68
    zephyr83
     scrive: 

    @J

    Tutto quello che dici sul codice aperto si risolve con una licenza (come quella che usa apple, lo fa di frequente) e con i brevetti. Tra l’altro anche la GPL ha delle regole, nn è che puoi prendere il codice e farne davvero quello che vuoi. se è tutelato il software sotto gpl figuriamoci quello sotto un’altra licenza meno restrittiva!

    Per il pantone ho capito in parte ma nn capisco perché si debba pagare per i colori di una bandiera. Se io so esattamente che colori usare (e anche se nn fosselo stesso identico al 100%) dvo’è il problema?

  • # 69
    Marco
     scrive: 

    Mancava la conclusione XD
    Alla fine il programma potrebbe non “conoscere” niente riguardo a Pantone, e il risultato in stampa sarebbe il medesimo. Anzi, spesso con Photoshop e Xpress si selezionava un colore a caso, senza nemmeno guardare la mazzetta ne la corrispondenza a video, tanto si sapeva che alla fine la ci andava il Pantone xxx che voleva il cliente.

  • # 70
    zephyr83
     scrive: 

    @Marco

    Anche io apprezzo cesare per i suoi articoli sulle architetture dei processori dove dimostra grandissime conoscenze. Però sul mondo open source nn riesco a capire come una persona cn tali “capacità informatiche” possa esserne tanto “contrario” e vedere tutto in maniera così negativa!

  • # 71
    GIAMPY
     scrive: 

    Ma che roba!!!!!!!!!1
    Si apre una discussione per rispondere a una domanda:

    Meglio vista o meglio seven?

    E poi voi utenti finite con il parlare di linux mac opensource…..

    Ma è meglio vista o seven!?

    Tutti sapete tutto, ma vi limitate a sostenere dettagli come gpu accelerazione 2d…..

    Chi ha provato windows seven ed installato i programmi comuni che tutti vogliono sul pc, chi ha verificato la stabilita durante un render grafico ad alto contenuto, chi ha provato a lanciare tanti programmi simultaneamente?

    N.B
    Se installate bene vista64 sp2 e se vi installate i programmi correttamente, vi posso assicurare che funziona.

    Poi se a voi piace che il computer con emule avviato assieme a azureus, contemporaneamente comprime un video con virtualdub e masterizza una iso su dvd e ritocca un disegno con corel draw x2 e per finire una costruzione della mappa di una cpu con autocad, mentre è attiva la scanzione euristica dell’antivirus ed c’è un tentativo di comunicazione activex da parte del browser sul quale state navigando……

    NEANCHE CON 16 gb di memoria.

    Voi testate i computer così?

    COMPRATE UN PC DUO CORE O QUAD COME VOLETE.
    LO USATE PER FARE UN PO’ DI FOTORITOCCO NAVIGARE SCARICARE MASTERIZZARE E ASCOLTARE MUSICA.

    NON DICO WIN9X.

    MA VI BASTA WINDOWS XP

    POI SE VOLETE I CASSONETTONI DELLA NASA PER INSTALLARE OFFICE COSI’ APRE IL PROGRAMMA UNA FRAZIONE DI SECONDO PRIMA DI XP …………

    CIAO A TUTTI

  • # 72
    Cesare Di Mauro
     scrive: 

    @zephyr83: Sto cercando di “difendere” Stallman e spiegare (nei limiti delle mie possibilità) il suo pensiero e perché è così accanito!
    Non c’è bisogno che tu lo faccia: ti abbiamo detto che lo conoscevamo.

    Però dai commenti di alcuni sembra tutto un gioco, ci lavorano incapaci, nn andranno mai da nessuna parte, si storce il pensiero e la filosofia…difficile rimanere “impassibili”, ma nn mi ritengo affatto un estremista!
    Qui quello che distorce le parole e il pensiero degli altri mi sembra appurato che sia tu. Io non ho generalizzato, e l’ho anche scritto! Ho sempre puntato il dito contro fatti ben precisi e circostanziati, e t’invito a rileggere nuovamente i commenti che ho scritto per appurarlo.

    Non puoi mistificare così ciò che dicono gli altri: è assolutamente scorretto!

    Io mi prendo le responsabilità per quello che ho detto, NON per quello che tu PENSI io abbia detto.

    ok nn è odio ma almeno disprezzo si può dire?
    Diciamo che mi è indigesto. E se hai visto qualche video, avrai capito anche perché.

    Cmq tu ripoti fatti ma poi trai le conclusioni che vuoi tu!
    Perché, dovrei trarre soltanto quelle conclusioni che vuoi tu? :D

    Vuoi i dati del mio account, così magari li scrivi tu i commenti al mio posto? :D :D :D

    Perché da quello che hai ripotato io mi sn fatto un’opinione diversa, e il link che hai postato tu dice le stesse cose di quello che ho riportato io. La questione è sfociata più apertamente e seriamente quando le magiori distro, debian compresa (e da lei nn ce lo si aspettava) hanno introdotto mono nelle installazioni di default! Così si che c’è il pericolo che si dipenda eccessivamente da microsoft. si sta incentivando troppo pesantemente l’utilizzo di mono e di C#, cosa che prima nn avveniva.
    Guarda che se prima uno voleva sviluppare in C#, se lo installava lo stesso Mono: non è che cambiava idea soltanto perché non era disponibile. Tra l’altro coi package manager lo installi subito.

    Adesso, visto che C# ha già superato Java come preferenza per lo sviluppo delle applicazioni in ambiente Linux, è sembrato sensato inserire Mono di default in alcune distro. E non c’è nulla di scandaloso, visto che il trend è in crescita e l’esigenza è tangibile. Sarebbe stato stupido, invece, non farlo.

    Tra l’altro mono vuole cercare di essere compatibile al 100% con .Net, implementandando anche le parti NON standardizzate!
    Ma Stallman si scaglia contro TUTTE le implementazioni, anche quelle “libere”! Cioé persino contro quella sostenuta dalla SUA fondazione, la FSF!

    Te ne rendi conto ?

    Il “concetto” di CLR lo comprende perfettamente
    In tal caso avrebbe potuto citarlo, o fare il nome di qualche altro linguaggio che gira su questo runtime. Invece è partito a testa bassa soltanto contro C#, e l’ha ripetuto più volte.

    ma con mono la piga è tutto sul perfetto implemento di .Net
    Qui non ho capito cosa intendevi dire.

    si usa C#, è stato realizzato gtk# e la maggior parte delle nuove applicazioni per gnome vengono realizzate appunto con mono c# e gtk#! mi sembra normale, dal suo punta di vista, essere preoccupati!
    E allora perché, al contempo, tesse le lodi delle applicazioni “libere” scritte in C#? Non è un controsenso?

    Inoltre prima dei suoi interventi microsoft nn aveva affatto chiarito la questione sulle parti coperte da prevetto!
    E chi se ne frega: lui ha messo nel calderone anche le implementazioni “libere”. Persino quella della FSF, che NON ha intenzione di implementare parti coperte da brevetto!

    Anche per la questione khtml e webkit ti ho espresso il mio punto di vista….tu nn hai riportato fatti, hai solo espresso l’idea che ti eri fatto tu! nn è ottusità per me quella degli sviluppatori khtml, l’alternativa sarebbe lavorare come subordinati di apple sperando che le proprie migliorie possano esser prese in considerazione dalla casa di cupertino. Inoltre dal lato umano un certa sfrustazione in questa cirocstanza la potrei capire benissimo! Magari con l’entrata in gioco di google le cose potrebbero cambiare! In ogni caso browser basati su webkit in linux si possono avere senza problemi, konqueror compreso e ancora nn si sa quale sarà in futuro quello predefinito di kde4!
    I FATTI sono che Google per Chrome ha utilizzato WebKit. I FATTI sono che, come TU STESSO hai detto, altri browser (suppongo open source, visto che citi Linux) lo usano.

    I FATTI rimangono che i creatori & manutentori del progetto originale, KHTML, si lamentano di non riuscire a utilizzare WebKit perché Apple fa troppe modifiche.

    Loro, che sulla carta dovrebbero avere molte meno difficoltà rispetto agli altri (visto che il progetto è nato da loro stessi), invece se ne lamentano. Gli altri, anche sviluppatori open source, ci sviluppano tranquillamente altri browser.

    Se c’è frustrazione, l’unico motivo valido potrebbe essere che altra gente ci riesce, mentre loro no.

    Vorrei anche aggiungere qualche considerazione riguardo la questione di microsoft e dei driver realizzati per il kernel linux sotto GPL 2. Ovviamente microsoft l’ha fatto perché alla fine le conveniva così (come ha detto J), ma è stata “costretta” a rilasciare i driver sotto gpl 2 proprio perché il kernel linux è sotto questa licenza e se volevano che venissero inglobati ufficialmente NON POTEVANO FARE ALTRIMENTI! Se fosse stata usata un’altra licenza molto probabilmente le cose sarebbero andate diverse e invece a essere così “ottusi” e arroganti “quelli di linux” alla fine hanno raggiunto il proprio scopo!
    Ma non hai capito che MS non ha voluto calare le corna, come si suol dire, ma ha tirato un colpo da maestro alla comunità Linux?

    Con sole 20mila linee di codice rilasciate s’è garantita il supporto a Linux, e sai perché? Per far girare le distro all’interno dei SUOI sistemi di virtualizzazione, quindi per incrementare la diffusione dei SUOI prodotti… a pagamento e… closed!

    Ma non solo: “donando” alla comunità i sorgenti, gli passa pure la palla del mantenimento. Come dire: “se fate qualche cambiamento al kernel (e capitano sovente), i driver li aggiornate voi, visto che li ho resi disponibili alle VOSTRE condizioni”.

    Più comodo di così: ha ottenuto il maggior risultato al minor costo.

    inoltre tutto questo dimostra anche il successo di linux in certi ambiti e il fatto che siano gli altri a doversi adeguare……forse nn sn tutti saltimbanchi arroganti!
    Forse dovresti leggere meglio quello che dicono gli altri, come ho scritto sopra, senza scadere nella mistificazione delle parole altrui.

    Anche io apprezzo cesare per i suoi articoli sulle architetture dei processori dove dimostra grandissime conoscenze. Però sul mondo open source nn riesco a capire come una persona cn tali “capacità informatiche” possa esserne tanto “contrario” e vedere tutto in maniera così negativa!
    Io invece mi chiedo perché continui a travisare le mie parole. Ho sempre contestualizzato, e specificato anche il senso di ciò che dicevo. Invece tu prendi un mio pensiero e lo estendi a TUTTO.

    Mah. C’ho perso le speranze ormai: è da un pezzo che ti chiedo di non mistificare, e continui a farlo senza, spero in buona fede, nemmeno renderti conto del tuo agire…

  • # 73
    Marco
     scrive: 

    “ha tirato un colpo da maestro alla comunità Linux?”

    Veramente ci sono anche altre letture, e la piu’ gettonata e’ che Microsoft fosse in odore di violazione della GPL:
    http://www.theregister.co.uk/2009/07/23/microsoft_hyperv_gpl_violation/
    http://www.osnews.com/story/21882/Microsoft_s_Linux_Kernel_Code_Drop_Result_of_GPL_Violation

    “i driver li aggiornate voi, visto che li ho resi disponibili alle VOSTRE condizioni””

    Beh, ma questo non e’ automatico. In primis bisogna vedere se verra’ incluso nella main line del kernel, cosa possibilissima ma anche no, dato che linux ha gia’ un suo framework (kvm) per la virtualizzazione, e in passato i moduli per qemu o vmware sono sempre rimasti fuori.
    Poi verosimilmente chi si occupera’ del mantenimento sara’ qualcuno di Microsoft, e anche qui niente di strano.

    “quindi per incrementare la diffusione dei SUOI prodotti”
    Questo si vedra’, in quanto magari qualche cliente potrebbe passare da soluzioni Win 100% a solo un 2008 server + ambiente misto con linux virtualizzati.

  • # 74
    Cesare Di Mauro
     scrive: 

    Ho capito e concordo con le tue valutazioni.

    Come mai, anche se sono disponibili sorgenti di driver completi e GPL2, non dovrebbero essere inclusi nel kernel?

    Posso capire che c’è già un framework per la virtualizzazione, ma questo non è compatibile con l’implementazione di Hyper-V, e le prestazioni infatti sono scarse. Con un apposito driver i problemi vengono risolti.

    E’ un po’ come per le schede video: le posso usare in modalità framebuffer, ma con scarse prestazioni. Con un driver ad hoc, invece, si possono sfruttare molto bene.

  • # 75
    Marco
     scrive: 

    “Come mai, anche se sono disponibili sorgenti di driver completi e GPL2, non dovrebbero essere inclusi nel kernel?”

    E’ capitato per patches troppo invasive, come il supporto a ReiserFS4 che presupponeva pesanti modifiche al VFS, driver che richiedevano firmware sottoforma di blob, modifiche che si discostavano troppo dalla “filosofia” unix, come la tanto discussa patch sul relatime, e cosi’ via. Se ne discutera’ sulla LKML, anche se in questo caso non vedo controindicazioni.
    Il maintainer del driver dovrebbe essere Greg Kroah-Hartman, che lavora per Novell.

  • # 76
    zephyr83
     scrive: 

    @Cesare Di Mauro

    Mha, sarò io che traviso, cercherò di fare più attenzione, ma se scrivi certe cose nn posso farmi idee diverse!
    A me il discorso di Stallman su mono e C# sembra comprensibile e coerente! a lui interessa il software libero, senza ombre sui brevetti. dotgnu nn tocca minimamente le parti coperte da brevetto e nn cerca di implementeare .Net al 100% come fa mono (e mi pare una bella differenza). dotgnu nn si lega a microsoft e .net, si limita solo alle parti standardizzate, mono invece no. Poi mi sembra normale che sia intervenuto più “aspramente” quando ha visto che si stava iniziando ad adottare in massa mono e c#. java su linux nn ha mai preso tanto piede, tra l’altro inizialmente neanche questo era tanto “libero”.

    Continuo a nn concordare su ciò che tu ritieni i FATTI! quelli di khtml nn hanno detto di nn riuscire a utilizzare webkit e secondo la mia solita tendenza a travisare le tue parole per me è quello di cui ti sei convinto tu. Però diciamo solo che nn sei ben informato su questo argomento e ti è sfuggito il nocciolo della questione (anche se mi pare di averlo ribadito più volte, ma ripeto nn sn molto buono a farmi capire)….lasciamo quindi stare i miei soliti travisamenti! Quelli di khtml dovrebbero fare più fatica del solito per adatare khtml a webkit e dovrebbero sempre rincorrere apple (è lei che nn è disposta a “collaborare”). Gli altri usano direttamente webkit, nn toccano niente! anche quelli di khtml potrebbero farlo ma dovrebbero buttare letteralmente khtml e usare webkit così com’è e iniziare a lavorare su questo. konqueror si può già uasre con webkit! Però a che servirebbe lavorare così? magari introducono qualche novità, poi arriva apple dopo 3 o 6 mesi rilasciando un’enorme mole di modifiche, migliorie e documentazione, magari fregandosene del contribuito dato dagli sviluppatori di khtml i quali dovrebbero rimettersi a lavoro per adattare la proprima versione di webkit a quella di apple (oppure buttando di nuovo tutto via e ricominciando da capo dalla nuova versione di apple). Il rischio è questo e mi sembra normale essere contrari a collaborazioni unilaterali come queste! magari le cose potrebbero cambiare con l’entrata in gioco di google. questi sn i fatti!

    Riguardo a microsoft purtroppo mi ero illuso :D
    hanno DOVUTO “donare” quel codice perché avevano violato la GPL! e anche questo è un altro fatto!!! alla fine la tanto criticata gpl ha dimostato la propria efficacia in casi come questo.
    Cmq se il codice è “ok” e nn presenta problemi per l’integrazione nel kernel secondo me sarà incluso nelle versioni ufficiali senza troppi problemi

  • # 77
    j
     scrive: 

    Quelli di khtml dovrebbero fare più fatica del solito per adatare khtml a webkit

    il tuo post si basa su un’ assunzione errata: il maggior dispendio di energie, la frammentazione con conseguente necessità di sincronizzare e portare features tra progetti diversi, eccetera, non è quello che sarebbe avvenuto passando a webkit, ma è ciò che si verifica attualmente in conseguenza della scelta – rispettabile, per carita – di proseguire autonomamente lo sviluppo del proprio framework (che dal canto suo, è innegabile, non è più ciò che il resto del mondo (open source e non) usa e supporta…)

    se all’ uscita di webkit lo avessero adottato deprecando khtml, e non avessero proseguito lo sviluppo di questo, ora avrebbero un framework in meno da mantenere e molto lavoro in meno (per il porting di funzioni e fix da webkit a khtml) da fare

    e dovrebbero sempre rincorrere apple (è lei che nn è disposta a “collaborare”)

    su webkit.org il nome di apple non appare nemmeno nella homepage… safari resterà anche il primo utente di webkit, ma webkit non è più un progetto esclusivo di apple, ma un progetto open source come altri, che però a differenza di altri è sostenuto da nomi grossi dell’ industria IT…

    konqueror si può già uasre con webkit!

    no, konqueror è fortemente vincolato a khtml ( http://www.osnews.com/story/21765 ) attraverso un accesso alla KHMLPart al di là della normale api delle Kpart (‘ implementazione degli oggetti componenti sotto kde)

    si dovrebbe o migrare la code base del browser per svincolarla da KHTMLPart o implementare una “QTWebkitPart” api-compatibile con questa – entrambe soluzioni subottime
    oppure, si può evitare il problema del tutto passando ad Arora…

    Però a che servirebbe lavorare così? magari introducono qualche novità, poi arriva apple dopo 3 o 6 mesi rilasciando un’enorme mole di modifiche, migliorie e documentazione, magari fregandosene del contribuito dato dagli sviluppatori di khtml i quali dovrebbero rimettersi a lavoro per adattare la proprima versione di webkit a quella di apple (oppure buttando di nuovo tutto via e ricominciando da capo dalla nuova versione di apple).

    se gli sviluppatori di khtml usassero webkit, non ci sarebbero più due progetti diversi, due repository diversi, due code base da tenere in sincrono ( come invece vi sono allo stato attuale), ma ve ne sarebbe uno supportato da tutti…

    comunque, ormai khtml e webkit sono a tutti gli effetti due progetti separati, sviluppati indipendentemente .. se si trattasse di prodotti closed source sarebbero concorrenti (ma mi pare la logica della concorrenza abbia allignato anche qui, visto che almeno uno dei due sembra voler sottrarre all’ altro utenza e/o sostenitori, con una propria politica di “marketing” ) ed è già tanto che si possa scambiare parti di codice, grazie all’ essere entrambi progetti open source…

    i blog post degli sviluppatori di khtml, dimostrano che questi hanno accettato e voluto questa situazione, e dimostramo che le motivazioni non sono tecniche, ma di principio e in buona parte, di ego (“non vogliamo lavorare per apple”)
    a loro va bene così… ti lamenti tu al posto loro ? :-D

  • # 78
    j
     scrive: 

    Riguardo a microsoft purtroppo mi ero illuso :D
    hanno DOVUTO “donare” quel codice perché avevano violato la GPL!

    nella versione iniziale del driver per paravirtualizzazione su hyper-v, avevano fatto l’ errore di linkare staticamente il driver proprietario (binario) a codice gpl (senza, per dire, strati di interfacciamento open source alla maniera di nvidia) ma non è che avessero ripreso codice altrui per ridistribuirlo come proprio…

    quindi non erano TENUTI a porre il codice sotto GPL2 – avrebbero potuto limitarsi a non distribuirlo ulteriormente, senza contribuire alcuna patch, ma l’ hanno fatto perchè comuqnue era la soluzione migliore per tutti – per l’ utenza di windows server, per l’ utenza linux, e quidi per MS stessa

  • # 79
    zephyr83
     scrive: 

    @J

    Nn so esattamente come funziona adesso con webkit lo sviluppo ma inizialmente apple ha lavorato in segreto per un anno! L’alternativa era buttare khtml e passare a webkit! Da wiki:
    “Nel 2002 la Apple scelse il componente di KDE come interprete HTML per il suo nuovo browser web Safari. Da allora Apple pubblica il codice sorgente aggiornato della propria versione del motore KHTML (WebCore), sul sito degli sviluppatori, e inoltre restituisce al progetto KDE sotto forma di patch le singole modifiche apportate. Questo dovrebbe teoricamente permettere un proficuo scambio del rispettivo lavoro. Tuttavia la condivisione di codice tra le due versioni di KHTML non è semplice come potrebbe apparire e sono stati avanzati dubbi che le due derivazioni riusciranno mai effettivamente a convergere. Una delle ragioni di questa situazione risale al fatto che Apple lavorò segretamente per un intero anno prima di rendere pubblico il proprio lavoro. Un altro ostacolo deriva dal fatto che Apple tende a mettere a disposizione delle patch relativamente grosse che incorporano un gran numero di differenti modifiche, spesso scarsamente documentate, rendendo materialmente difficile per gli sviluppatori KDE interpretare il tipo di lavoro fatto di modo da poterlo riutilizzare. Questo non ha impedito comunque di integrare in KHTML un certo numero di migliorie, specialmente sotto il profilo della velocizzazione del motore. Nel giugno 2005, grazie alla collaborazione con Apple, il motore KHTML integrato nel browser web Konqueror ha superato il test Acid2, test di riferimento per la verifica del supporto agli standard da parte dei browser.”
    Nn mi sembra strano che inizialmente nn abbiano voluto abbandonare khtml! Cmq possono sempre cambiare idea!
    Riguardo a konqueror e webkit io so che si poò fare
    http://pollycoke.net/2009/03/11/konqueror-webkit-ecco-come/

    Per i driver forniti da microsoft nn erano tenuti ma nn c’era alternativa se volevano l’inclusione nel kernel, inoltre avevano violato la gpl quindi o facevano così oppure il lavoro che avevano fatto era inutilizzabile e nn potevano distribuirlo

  • # 80
    Cesare Di Mauro
     scrive: 

    @zephyr83: Mha, sarò io che traviso, cercherò di fare più attenzione, ma se scrivi certe cose nn posso farmi idee diverse!
    Ma è un problema tuo. Non puoi distorcere le parole degli altri e poi uscirtene così. Nel dubbio, meglio non scrivere.

    Come ho già detto, mi prendo la responsabilità per quello che dico, non per quello che tu pensi abbia detto.

    A me il discorso di Stallman su mono e C# sembra comprensibile e coerente! a lui interessa il software libero, senza ombre sui brevetti. dotgnu nn tocca minimamente le parti coperte da brevetto e nn cerca di implementeare .Net al 100% come fa mono (e mi pare una bella differenza). dotgnu nn si lega a microsoft e .net, si limita solo alle parti standardizzate, mono invece no. Poi mi sembra normale che sia intervenuto più “aspramente” quando ha visto che si stava iniziando ad adottare in massa mono e c#. java su linux nn ha mai preso tanto piede, tra l’altro inizialmente neanche questo era tanto “libero”.
    Stallman s’è scagliato contro TUTTE le implementazioni di .NET. Quindi anche quelle “libere”. Quindi anche quella sostenuta dalla SUA fondazione.

    Se non riesci a vedere una profonda incoerenza in tutto ciò, abbiamo un concetto decisamente diverso del significato di questa parola.

    Su KHTML ti ha risposto j, col quale sono d’accordo. Sull’argomento mi limito a evidenziare una cosa del tuo ultimo commento.

    Nn so esattamente come funziona adesso con webkit lo sviluppo ma inizialmente apple ha lavorato in segreto per un anno! L’alternativa era buttare khtml e passare a webkit! Da wiki:
    [...]
    Nn mi sembra strano che inizialmente nn abbiano voluto abbandonare khtml! Cmq possono sempre cambiare idea!
    Riguardo a konqueror e webkit io so che si poò fare
    http://pollycoke.net/2009/03/11/konqueror-webkit-ecco-come/

    E allora che lo facciano. Nessuno di quelli che utilizza webkit si lamenta. Tanto meno degli aggiornamenti che vengono effettuati.

    E il link che hai portato dimostra che continuare ad attaccarsi all’ideologia è un comportamento sbagliato e dannaso per la comunità open source.

    L’ottusità non paga, e lo dimostrano i progressi, la diffusione e il consenso che sta ottenendo webkit.

    Con buona pace degli integralisti pseudoreligiosi.

    Per i driver forniti da microsoft nn erano tenuti ma nn c’era alternativa se volevano l’inclusione nel kernel, inoltre avevano violato la gpl quindi o facevano così oppure il lavoro che avevano fatto era inutilizzabile e nn potevano distribuirlo
    A quanto pare hanno sbagliato a linkare codice GPL. Avrebbero potuto benissimo fare come nVidia, e il problema sarebbe stato risolto rilasciando una manciata di righe di codice, ma in questo modo si sarebbero giocati la possibilità di includere integralmente i loro driver nel kernel e, quindi, limitandone la diffusione.

  • # 81
    zephyr83
     scrive: 

    @Cesare Di Mauro

    Bho a me stallman nn sembra incoerente inoltre nn ho letto sue dichiarazioni dove dice che nessuna implementazione di .Net nn va bene. è normale che certe posizioni e certe dichiarazioni finiscano per essere travisate oppure “aggravate” quando scoppiano discussioni molto accese! basta vedere i nostri botta e risposta qui su Appunti digitali, Marco ci aveva preso per due “estremisti”, eppure nn ho mai detto io di condividere totalmente il pensiero di stallman e nn mi faccio neanche problemi a usare driver e programmi proprietari (come opera).

    Per gli sviluppatori di khtml nn voler accettare di passare allo sviluppo di webkit nn vuol dire nn essere in grado di utilzzarlo! Non c’è nessun problema di integralismo pseudoreligioso, questo è quello che stai dicendo tu perché ti sei convinto di questo ormai! Secondo me è solo una questione di “orgoglio” e “rabbia”. Secondo me avrebbero reagito così anche se una cosa del genere l’avessero fatta quelli di mozilla….anche se quelli di mozilla sicuramente nn si sarebbero mai comportarti come quelli di apple. se lo sviluppo si dimostrerà non condizionato da apple secondo me quelli di khtml potrebbero anche cambiare idea…..le loro dichiarazioni erano successive al rilascio di webkit.
    Inoltre perché dovrebbero per forza buttare via khtml e passare a webkit? ognuno fa un po’ quel che vuole. webkit nn è mica l’unico motore html open source (libero)! Anzi khtml era “relegato” principalmente a kde! Secondo il tuo ragionamento dovevano smettere di sviluppare ben prima khtml e passare a gecko e “unire gli sforzi” della comunità per un prodotto migliore……ma così nn ci sarebbe stato webkit che nn ha molto da invidiare a gecko. Come vedi la concorrenza fa bene, anche dentro una “comunità”.
    Mi dici che io traviso le parole ma se tu mi parli di integralisti pseudoreligiosi io come dovrei interpretare le tue parole? Per me se scrivi così è perché nn hai capito il problema e ormai parti prevenuto

  • # 82
    Cesare Di Mauro
     scrive: 

    @zephyr83: Bho a me stallman nn sembra incoerente inoltre nn ho letto sue dichiarazioni dove dice che nessuna implementazione di .Net nn va bene. è normale che certe posizioni e certe dichiarazioni finiscano per essere travisate oppure “aggravate” quando scoppiano discussioni molto accese! basta vedere i nostri botta e risposta qui su Appunti digitali, Marco ci aveva preso per due “estremisti”, eppure nn ho mai detto io di condividere totalmente il pensiero di stallman e nn mi faccio neanche problemi a usare driver e programmi proprietari (come opera).
    Eccole qui le dichiarazioni di Stallman:

    “The problem is not unique to Mono; any free implementation of C# would raise the same issue.”

    Sei ancora convinto che Stallman non sia incoerente? Se sì, dimmi perché; smonta questa SUA frase e DIMOSTRAMI che l’implementazione di .NET foraggiata dalla FSF NON rientra della sua affermazione.

    Per gli sviluppatori di khtml nn voler accettare di passare allo sviluppo di webkit nn vuol dire nn essere in grado di utilzzarlo!
    Allora perché lamentarsene, quando tutti gli altri lo usano tranquillamente? Ecco qui:

    “I don’t want to work on QtWebkit (or any other fork of webkit) as a free developer (without being paid) because it would mean I have to constantly keep up with work done by apple and other companies.”

    Non c’è nessun problema di integralismo pseudoreligioso, questo è quello che stai dicendo tu perché ti sei convinto di questo ormai!
    Sempre dallo stesso autore, sempre dalle sue parole:

    “I don’t want to work on QtWebkit (or any other fork of webkit) as a free developer (without being paid) because it would mean I have to constantly keep up with work done by apple and other companies.”

    Se non è integralismo questo…

    Secondo me è solo una questione di “orgoglio” e “rabbia”. Secondo me avrebbero reagito così anche se una cosa del genere l’avessero fatta quelli di mozilla….anche se quelli di mozilla sicuramente nn si sarebbero mai comportarti come quelli di apple. se lo sviluppo si dimostrerà non condizionato da apple secondo me quelli di khtml potrebbero anche cambiare idea…..le loro dichiarazioni erano successive al rilascio di webkit.
    Finora non è cambiato nulla. Per orgoglio, rabbia, o integralismo che dir si voglia.

    Inoltre perché dovrebbero per forza buttare via khtml e passare a webkit? ognuno fa un po’ quel che vuole. webkit nn è mica l’unico motore html open source (libero)! Anzi khtml era “relegato” principalmente a kde!
    “Ubi maior, minor cessat”

    Secondo il tuo ragionamento dovevano smettere di sviluppare ben prima khtml e passare a gecko e “unire gli sforzi” della comunità per un prodotto migliore……ma così nn ci sarebbe stato webkit che nn ha molto da invidiare a gecko. Come vedi la concorrenza fa bene, anche dentro una “comunità”.
    Sì, secondo me creare progetti che hanno lo stesso scopo è un’inutile perdita di tempo e risorse.

    E questo proliferare di renderer HTML si configura come tale, non come “sana concorrenza”.

    Sai bene come la penso, ed è inutile rinvangare le stesse storie.

    Mi dici che io traviso le parole ma se tu mi parli di integralisti pseudoreligiosi io come dovrei interpretare le tue parole? Per me se scrivi così è perché nn hai capito il problema e ormai parti prevenuto
    La frase di quello sviluppatore te l’ho riportata per intero. Poi se tu la capisci diversamente, non hai che da farmi vedere qual è il procedimento logico e di analisi che hai usato che NON porta a pensare che si tratti di una presa di posizione ottusa e settaria.

  • # 83
    zephyr83
     scrive: 

    @Cesare Di Mauro

    A me nn sembra incoerente! C’è anche tutta la traduzione di quello che hai ripotato tu http://www.fsf.org/translations/mono-versione-italiana/
    Il problema ora è che c’è eccessiva dipendenza da mono, gnome si sta legando tantissimo e questo è pericoloso (secondo stallman, per la questione brevetti). Un conto è qualche programmino, un conto è compromettere buona parte del sistema!

    “Il problema non è soltanto di Mono; qualsiasi implementazione libera del C# avrebbe lo stesso inconveniente. Il pericolo è che Microsoft possa costringere tutte le implementazioni libere del C# a scomparire, utilizzando i brevetti software (v. http://swpat.org e http://progfree.org). Questo è un serio pericolo, e soltanto gli sciocchi lo ignorerebbero fino al momento in cui si concretizzi. Dobbiamo prendere da adesso le precauzioni opportune per difenderci da questo futuro pericolo.
    Questo non significa che implementare il C# sia una cosa negativa. Le implementazioni libere del C# permettono agli utenti di eseguire i propri programmi C# su piattaforme libere, il che è positivo (anche il Progetto GNU ha un’implementazione libera del C#, chiamata Portable.NET). In linea di principio vogliamo fornire le implementazioni libere per ogni linguaggio di programmazione in uso.

    Il problema non risiede nelle implementazioni del C#, ma piuttosto in Tomboy e nelle altre applicazioni scritte in C#. Se non potessimo più utilizzare il C#, non potremmo più utilizzare nemmeno tali applicazioni. Questo non le rende immorali, ma scriverle ed utilizzarle significa correre un rischio immotivato.

    Dobbiamo fare in maniera tale da ridurre al minimo la dipendenza dalle implementazioni libere del C#. In altre parole, dobbiamo scoraggiare i programmatori dallo scrivere programmi in C#. Di conseguenza non dobbiamo includere implementazioni del C# nell’installazione di default (o nel più comune modo di installare GNOME) delle distribuzioni GNU/Linux, ma distribuire e incoraggiare le applicazioni non C# al posto di applicazioni simili scritte in C#.”

    A me nn sembra incoerente conoscendo il suo pensiero! Il problema principale è l’inclusione di default di mono, si sta spingendo troppo su mono e c# e questo alla lunga rischia di essere pericoloso. Stallman parla di ridurre al minimo la dipendenza da C#.
    Io nn valuto una singola frase ma tutto il discorso!

    Riguardo a KHTML nn mi sembra affatto integralismo e l’ho già spiegato più di una volta, il loro lavoro è stato strappato via da quelli di apple che hanno lavorato segretamente per un intero anno! poi hanno rilasciato un mare di dati e di informazioni (spesso la doucmentanzione nn era il massimo) rendendo difficile la collaborazione. In una situazione del genere mi sembra normale pensare di rischiare di finire di lavorare gratis per apple che fa i propri comodi, sfrutta il lavoro degli altri e contribuisce solo di facciata! Io nelle considerazioni personali di questo sviluppatore nn ci vedo proprio niente di integralista:

    “Being a khtml developer and reading all those posts on the planet I just feel confused.

    Basically, there are like 3 sentences to sum up. I like to work on khtml because it’s interesting and I get to work with super-smart people like Maksim or Germain and others. I don’t want to work on QtWebkit (or any other fork of webkit) as a free developer (without being paid) because it would mean I have to constantly keep up with work done by apple and other companies. Is it as much interesting? for me it’s not. And the third – it’s really possible to integrate both engines in konq and let people choose, with KPart technologies it’s only about making additional button (hopefully).

    From my pov I would wish for one thing – contribution. Either it would be developing webkit kpart, konq, khtml, reporting bugs, broken sites, helping triaging (yay to bugsquad!), making testcases. And you can see – you don’t have to be a C++ developer to do that, you don’t have to be developer at all. Though I can’t make people do anything, let’s agree on that (it’s only my wish ).

    So, it’s just my 2 cents about the topic after all…”

    Mi sembra un discorso pacato e sensato! Nn mi sento di dargli contro per quello che ha scritto! Cmq riripeto, magari se lo sviluppo di webkit sarà in puro stile “open source” secondo me quelli di khtml potrebbero anche cambiare idea. In ogni caso cercare di migliorare khtml nn la vedo come una cosa negativa……ripeto, senza di loro nn ci sarebbe stato webkit quindi un po’ di concorrenza in più nn fa male! E poi essendo sempre progetti open source eventuali migliorie di uno potrebbero essere portate nell’altro (volendo). Inoltre l’utente ha la possibilità di scegliere khtml o webkit (come ha detto lo sviluppatore che hai chiamato in causa)! Per te questo è uno spreco, per me è una possibilità in più, ma nn mi sembra un discorso da integralisti quello fatto dallo sviluppatore di khtml

  • # 84
    zephyr83
     scrive: 

    D’oh ma che cavolo! il mio commento nn è stato postato!
    Cmq ripeto a me stallman nn sembra incoerente, il suo discorso mi sembra chiaro (nn metto il link della FSF se no il mio messaggio sparisce di nuovo)

    “La decisione da parte di Debian di includere Mono nella propria più comune installazione di GNOME, per venire incontro all’esigenza di Tomboy, un’applicazione scritta in C#, porta la comunità in una direzione rischiosa. È pericoloso essere dipendenti dal C#, quindi dobbiamo scoraggiarne l’uso.

    Il problema non è soltanto di Mono; qualsiasi implementazione libera del C# avrebbe lo stesso inconveniente. Il pericolo è che Microsoft possa costringere tutte le implementazioni libere del C# a scomparire, utilizzando i brevetti software (v. http://swpat.org e http://progfree.org). Questo è un serio pericolo, e soltanto gli sciocchi lo ignorerebbero fino al momento in cui si concretizzi. Dobbiamo prendere da adesso le precauzioni opportune per difenderci da questo futuro pericolo.

    Questo non significa che implementare il C# sia una cosa negativa. Le implementazioni libere del C# permettono agli utenti di eseguire i propri programmi C# su piattaforme libere, il che è positivo (anche il Progetto GNU ha un’implementazione libera del C#, chiamata Portable.NET). In linea di principio vogliamo fornire le implementazioni libere per ogni linguaggio di programmazione in uso.

    Il problema non risiede nelle implementazioni del C#, ma piuttosto in Tomboy e nelle altre applicazioni scritte in C#. Se non potessimo più utilizzare il C#, non potremmo più utilizzare nemmeno tali applicazioni. Questo non le rende immorali, ma scriverle ed utilizzarle significa correre un rischio immotivato.

    Dobbiamo fare in maniera tale da ridurre al minimo la dipendenza dalle implementazioni libere del C#. In altre parole, dobbiamo scoraggiare i programmatori dallo scrivere programmi in C#. Di conseguenza non dobbiamo includere implementazioni del C# nell’installazione di default (o nel più comune modo di installare GNOME) delle distribuzioni GNU/Linux, ma distribuire e incoraggiare le applicazioni non C# al posto di applicazioni simili scritte in C#.”

    Mi sembra coerente con il suo pensiero! lui è contrario ai brevetti e quindi cerca di “scoraggiare” a usare C#. In linea di principio nn è contrario a implementazioni libere di C# ma è pericolo dipenderne così tanto! gnome si sta legando tantissimo a mono, c# e gtk# e quindi meglio cercare di fermare il prima possibile questa tendenza. Leggendo tutto il discorso e nn una singola frase io nn ci vedo niente di incoerente, soprattutto conoscendo il suo pensiero.

    Per khtml anche nel parere personale di quel sviluppatore nn ci vedo nulla di integralista:

    “Being a khtml developer and reading all those posts on the planet I just feel confused.

    Basically, there are like 3 sentences to sum up. I like to work on khtml because it’s interesting and I get to work with super-smart people like Maksim or Germain and others. I don’t want to work on QtWebkit (or any other fork of webkit) as a free developer (without being paid) because it would mean I have to constantly keep up with work done by apple and other companies. Is it as much interesting? for me it’s not. And the third – it’s really possible to integrate both engines in konq and let people choose, with KPart technologies it’s only about making additional button (hopefully).

    From my pov I would wish for one thing – contribution. Either it would be developing webkit kpart, konq, khtml, reporting bugs, broken sites, helping triaging (yay to bugsquad!), making testcases. And you can see – you don’t have to be a C++ developer to do that, you don’t have to be developer at all. Though I can’t make people do anything, let’s agree on that (it’s only my wish ).

    So, it’s just my 2 cents about the topic after all…”

    Per come si è comportata inizialmente apple mi sembra ragionevole che si possa reagire così! Leggendo tutto e nn una singola frase a me sembra un discorso pacato e sensato, nessun integralismo.
    Magari se lo sviluppo di webkit si dimostrerà in linea con lo sviluppo di altri progetti open souce quelli di khtml potrebbero cambiare idea (ma alle condizioni iniziali no e per me nn hanno tutti i torti) in ogni caso nn ci vedrei nulla di sbagliato se decidessero ugualmente di continuare lo sviluppo di khtml! Per me sarebbe una possiblità in più, inoltre come ha detto lo sviluppatore che hai chiamato in causa l’utente può scegliere quello che preferisce, webkit o khtml. Tu nn la vedi come una cosa positiva ma senza khtml (che secondo il tuo ragionamento nn doveva neanche esistere) ora nn ci sarebbe webkit e la concorrenza fra webkit e gecko a me sembra una buona cosa (ovviamente compresi anche altri motori html proprietari).

  • # 85
    j
     scrive: 

    Leggendo tutto e nn una singola frase a me sembra un discorso pacato e sensato, nessun integralismo.

    nella frase in discussione lo sviluppatore in questione commette due errori che un programmatore o un ingegnere sw, esperto, o pragmatico, non commetterebbe…
    equipara QTWebKit a un fork di webkit, ma la classe QTWebKit è solo un controllo (o widget) che apre un’ area di layout rendering html per il quale usa webkit, incapsula, non forka quest’ ultimo;
    inoltre, che io sappia la api che webkit esporta alle applicazioni è stabilizzata a livello di major release, e d’ altra parte effettuando internamente il parsing del codice html, se anche venisse in futuro aggiornato per adeguarsi alle evoluzioni di questo, non renderebbe necessario apportare modifiche sostanziali alle applicaioni o appunto alle widget class che lo usano (vantaggio principale dello sviluppo a componenti e motivo principale per cui si fa)

    a parte questo, leggendo tutto e non una singola frase, emerge un senso di autogratificazione da parte dello sviluppatore in questione
    emerge il suo desiderio di poter continuare a contribuire a khtml in un modo o nell’ altro, pur di poter fare parte di un progetto libero (sia come open source sia in quanto libero da interessi “corporate” di aziende quali apple, google et al.), per il divertimento derivante, per poter stare a contatto di gente interessante, e perchè lavorare “seguendo il passo di ciò che fa Apple” per lui “non sarebbe altrettanto interessante”…

    non accenna minimamente a ciò che potrebbe andare a beneficio dell’ utenza, non si giustifica affermando che proseguire lo sviluppo di khtml possa essere nell’ interesse di chi khtml e konqueror se lo trovano installato con kde
    e in effetti non potrebbe farlo, non quando è il framework concorrente quello che può vantare un supporto maggiore, non quando l’ utenza stessa è oramai convinta che sia superfluo avere due render engine fork l’ uno dell’ altro, in concorrenza tra loro, uno dei due limitato a un singolo DE, l’ altro usato su più browser diversi, su OS diversi e supportato non da hobbysti ma da parte di aziende…

    dare la priorità al proprio divertimento di coder hobbysta piuttosto che al bene dell’ utenza (anche a costo di dover prendere certe decisioni) in effetti non è integralismo religioso, ha un altro nome

  • # 86
    zephyr83
     scrive: 

    Bhe quello è il personale pensiero di uno sviluppatore (sicuramente simile a quello degli altri di khtml). Rimane il fatto che nn ci vedo niente di integralista e bisogna anche considerare quando è stata rilasciata quella dichiarazione e all’inizio lavorare su webkit consisteva davvero a realizzare un fork, perché se tu lo implementi e poi apple di nuovo fa tutto in casa per un anno e rilascia con il tempo le informazioni su ottiene per forza di cose un fork!
    Penso che siano liberi di fare come vogliono, sarà l’utenza a decreatare chi avrà ragione! secondo me KDE passerà ufficialmente a webkik cn buona pace degli svlupaptori di khtml che magari potrebbero cambiare idea e “passare” a webkit (se vedono che lo sviluppo open source è garantito e nn condizionato pesantemente da apple).
    Rimane il fatto che nn vedo nessun integralismo o ideologia!

  • # 87
    Mavors90
     scrive: 

    Sto leggendo il dibattito tra zephyr83 e Cesare Di Mauro. Recentemente sono tornato a Windows dopo 3 anni di utilizzo esclusivo di GNU/Linux. Perchè? Perchè mi sono rotto le palle di tutte le incoerenze del free software. Mi trovo in pienissimo accordo con ciò che pensa Cesare. Il software libero ha partorito programmi di indubbia validità, come Firefox e OO.org, che reputo fenomenali, però c’è anche da dire che la maggior parte, anzi la quasi totalità di loro lascia il tempo che trova. Usare Linux mette ansia, non c’è nessuna garanzia. Ho altro da fare nella vita che stare dietro a ideologie e folli visioni. Quello che dici delle schede ATI sono cavolate: quello che compro lo voglio usare al 100%, mi rifiuto di usare qualcosa che non può sfruttare appieno il mio HW.

    Tante belle parole, ma la realtà alla fine non è così. Torniamo con i piedi per terra.

    Mavors

  • # 88
    Cesare Di Mauro
     scrive: 

    @zephyr83: A me nn sembra incoerente! C’è anche tutta la traduzione di quello che hai ripotato tu http://www.fsf.org/translations/mono-versione-italiana/
    Il problema ora è che c’è eccessiva dipendenza da mono, gnome si sta legando tantissimo e questo è pericoloso (secondo stallman, per la questione brevetti). Un conto è qualche programmino, un conto è compromettere buona parte del sistema!
    [...]
    A me nn sembra incoerente conoscendo il suo pensiero! Il problema principale è l’inclusione di default di mono, si sta spingendo troppo su mono e c# e questo alla lunga rischia di essere pericoloso. Stallman parla di ridurre al minimo la dipendenza da C#.
    Io nn valuto una singola frase ma tutto il discorso!

    Se non vedi nessuna incoerenza non è un problema mio, ma a questo punto se C# è così pericoloso mi faresti la cortesia di farmi vedere per quale motivo la FSF di Stallman foraggia lo sviluppo di una propria implementazione di .NET?

    E non è questione di “capire l’intero discorso”: o C# è “il male”, e quindi non lo si supporta e basta, oppure non è così male, e allora ha senso che la FSF ne porti avanti una propria implementazione.

    Non è difficile: basta decidere da che parte (della logica) stare.

    Riguardo a KHTML nn mi sembra affatto integralismo e l’ho già spiegato più di una volta, il loro lavoro è stato strappato via da quelli di apple che hanno lavorato segretamente per un intero anno!
    Scusa, ma non era un progetto open source? Cos’è che Apple avrebbe “strappato via”?

    poi hanno rilasciato un mare di dati e di informazioni (spesso la doucmentanzione nn era il massimo) rendendo difficile la collaborazione.
    Come ti avevo già detto, è singolare che gli sviluppatori di KHTML abbiano delle difficoltà, mentre altre realtà utilizzano tranquillamente WebKit per… realizzare altri browser (ma tu guarda!).

    In una situazione del genere mi sembra normale pensare di rischiare di finire di lavorare gratis per apple che fa i propri comodi, sfrutta il lavoro degli altri e contribuisce solo di facciata!
    ROFL. Ma nemmeno ti rendi conto di quello che dici! Quindi il lavoro fatto da Apple per WebKit sarebbe “di facciata”?!? Immagino, a questo punto, che avranno preso il codice KHTML, cambiato il nome al progetto e a qualche variabile, spostato qualche blocco di codice, e infine rilasciato il tutto.

    Ma guarda, certe cose sono talmente assurde che non meriterebbero nemmeno di essere commentate, e il tutto pur di difendere l’indifendibile.

    Io nelle considerazioni personali di questo sviluppatore nn ci vedo proprio niente di integralista:
    [...]
    Mi sembra un discorso pacato e sensato!

    Sul fatto che sia del tutto insensato ne abbiamo già parlato, e non ti riporto nuovamente le stesse cose perché dovrei fare un copia & incolla.

    Sul pacato, ci potrebbe anche stare, ma di fatto è un discorso da integralista, da muro contro muro.

    Nn mi sento di dargli contro per quello che ha scritto!
    Io sì. Posso, o devo chiedere il permesso a qualcuno per esporre il mio pensiero?

    Cmq riripeto, magari se lo sviluppo di webkit sarà in puro stile “open source” secondo me quelli di khtml potrebbero anche cambiare idea. In ogni caso cercare di migliorare khtml nn la vedo come una cosa negativa……
    L’ha già fatto Apple: non serve buttare altro tempo su KHTML.

    ripeto, senza di loro nn ci sarebbe stato webkit quindi un po’ di concorrenza in più nn fa male!
    La concorrenza fa male quando si sprecano risorse lavorando allo stesso tipo di progetto.

    E poi essendo sempre progetti open source eventuali migliorie di uno potrebbero essere portate nell’altro (volendo).
    Rimane pur sempre una perdita di tempo e risorse.

    Inoltre l’utente ha la possibilità di scegliere khtml o webkit (come ha detto lo sviluppatore che hai chiamato in causa)!
    Cos’avrebbe KHTML più di WebKit da invogliare gli utenti a utilizzarlo al suo posto? Se non ha niente di particolare, non ha senso preferirlo a quest’ultimo.

    Per te questo è uno spreco, per me è una possibilità in più, ma nn mi sembra un discorso da integralisti quello fatto dallo sviluppatore di khtml
    E’ uno spreco ed è un discorso da ottuso integralista.

    Tu nn la vedi come una cosa positiva ma senza khtml (che secondo il tuo ragionamento nn doveva neanche esistere)
    Ecco, qui dimostri ancora una volta di mistificare le mie parole. Adesso dimmi dov’è che avrei scritto un’assurdità del genere, per cortesia. Se non riporti per filo e per segno le mie parole e non dimostri che si arriva a quanto mi vorresti mettere in bocca, fammi il piacere di NON rispondere a questo commento, perché sono stanco di leggere le tue continue manipolazioni del mio pensiero.

    ora nn ci sarebbe webkit e la concorrenza fra webkit e gecko a me sembra una buona cosa (ovviamente compresi anche altri motori html proprietari).
    A me sì, e sai benissimo come la penso: è uno spreco di risorse.

    Bhe quello è il personale pensiero di uno sviluppatore (sicuramente simile a quello degli altri di khtml). Rimane il fatto che nn ci vedo niente di integralista e bisogna anche considerare quando è stata rilasciata quella dichiarazione e all’inizio lavorare su webkit consisteva davvero a realizzare un fork, perché se tu lo implementi e poi apple di nuovo fa tutto in casa per un anno e rilascia con il tempo le informazioni su ottiene per forza di cose un fork!
    Che fosse un fork era ovvio.

    Penso che siano liberi di fare come vogliono, sarà l’utenza a decreatare chi avrà ragione!
    E quando l’avrà fatto, capirai forse quanto tempo e risorse sono state buttate via inutilmente.

    secondo me KDE passerà ufficialmente a webkik cn buona pace degli svlupaptori di khtml che magari potrebbero cambiare idea e “passare” a webkit (se vedono che lo sviluppo open source è garantito e nn condizionato pesantemente da apple).
    Lo vuoi capire una buona volta che esistono persone che hanno sviluppato ALTRI browser basati su WebKit, e che non stanno a piangere dicendo che Apple lavora troppo in fretta e non gli permette di stare al passo?

    Rimane il fatto che nn vedo nessun integralismo o ideologia!
    Io sì, t’ho anche spiegato innumerevoli volte il perché (e non sono il solo), e a questo punto la tua difesa a oltranza contro ogni evidenza mi porta a pensare che siete fatti della stessa pasta.

  • # 89
    MenageZero
     scrive: 

    mi era già sorto il dubbio, ma ora dopo aver letto questo articolo mi viene proprio da chiedere: ma almeno i principali produttori di gpu, nvidia, ati ed intel(ovviamente solo integrate per ora), stanno fornendo o forniranno in tempi ragionevoli drv conformi al wddm 1.1 ? … non mi pare di aver mai visto citato in quelche release note il wddm 1.1, i pacchetti sono sempère glis tessi per vista e seven … la cosa, considerato che per seven a quanto ne so ms garantisce piena retrocompatibilità con vista (e quindi non può fare scelte per forzare il rilascio di drivers wddm 1.1 se il chip maker non ne ha voglia) è un po’ “inquietante” :D

  • # 90
    MenageZero
     scrive: 

    scusate gente, ero io che oltre ad essermi evidentemente perso info importanti mi era anche sfuggito questo post di
    Fanizzi:

    “I driver ATI sono full WDDM 1.1 compliant dai Catalyst 9.3
    I driver NVIDIA sono full WDDM 1.1 compliant dalla versione 180.00 se non erro, anche se uscì qualche beta anche della seria 17x.”

    ps: qualcuno sa se anche i drv intel sono wddm 1.1 ?

  • # 91
    Snow Leopard: un sistema operativo moderno, ma… meno sicuro - Appunti Digitali
     scrive: 

    [...] lo più come un’opera di affinamento e consolidamento del precedente Leopard, similmente al Windows Seven che arriverà fra un [...]

  • # 92
    Un software libero… dall’antitrust - Appunti Digitali
     scrive: 

    [...] fine ce l’ha fatta: a poco meno di un mese dalla commercializzazione di Seven, sembra che questa volta Microsoft sia riuscita a convincere l’antitrust europeo che, quella [...]

  • # 93
    ALESSIO
     scrive: 

    Dio cul, ho windows 7 ma a fare il rendering con alcuni giochi è un disastro, rallentati e Ingiocabili.
    Scheda Ati radeon 4850 con vista tutto ok ma con win7 ultimate da sbocoo, spero che con gli agg. futuri di seven si sistemi. Microsoft, siete una manica di sporchi, lavatevi l’ano che puzzate di merda fino all’anima.
    Un saluto dallo sporco………..

  • # 94
    Bugbuster
     scrive: 

    Confermo l’emulazione di Opengl su Windows 7 e probabilemtne anche vista. Possiedo 2 pc uno equipaggiato con una radeon 5850 e windows 7 ed un altro con windows XP ed una geforce GTS 250. Ho eseguito, con i medesimi settaggi, il benchmark ‘Heaven’ che funziona sia con opengl che con directx. I risultati sono stati a dir poco limpidi: sul sistema XP (con una scheda grafica, la GTS 250 che offre prestazioni decisamente inferiori) il benchmark totalizza circa 46-47 FPS in opengl e lo stesso in directx, sul sistema Windows 7 (che monta la 5850 che è + o – il doppio + potente della GTS 250) con directx fa 99-100 FPS mentre con openGL fa 46-47 FPS esattamente quanto la GTS 250 su Windows XP!!!! incredibile!!! questa è la prova lampante che i drivers opengl su Windows 7 sono volutamente appesantiti per offrire prestazioni inferiori rispetto alle directX, anche perchè la differenza sta proprio nel tempo di rendering.

  • # 95
    Cesare Di Mauro
     scrive: 

    Cosa non vi è chiaro del fatto che sono i produttori (AMD/Ati, nVidia, Intel) a occuparsi dei driver, e non Microsoft?

  • # 96
    Raffaele Fanizzi (Autore del post)
     scrive: 

    L’emulazione di OpenGL entra in gioco solo ed esclusivamente nel momento in cui sul sistema non è installato un driver OpenGL del produttore della scheda video. Tutto qui. Nel momento in cui installi il driver OpenGL di ATI o NVIDIA, le prestazioni dipendono al 99% da quest’ultimo e non dal sistema operativo.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.