di  -  martedì 13 luglio 2010

La mancanza di software professionale per il pinguino è sempre stata additata come una delle cause principali della scarsa diffusione di GNU/Linux nei PC domestici. La motivazione è spesso stata utilizzata a sproposito visto che in realtà software professionali esistono (mi vengono in mente alcuni programmi di CAE, fluidodinamica o grafica 3D).

Quello che molti chiamano software professionale può essere inquadrato in quella fascia intermedia ben descritta dal termine termine “prosumer“. Per intenderci mi sto riferendo a quella famiglia di software scatolati che si trovano nella fascia di prezzo tra i 30€ e i 100€.

I motivi che vengono in mente per spiegare questa mancanza sono molteplici:

  • Necessità di riscrivere il proprio programma per una piattaforma su cui non si ha esperienza
  • Scarsa diffusione della piattaforma tale da non giustificare la spesa
  • Scarsa comprensione dell’ecosistema
  • Serrata concorrenza di alternative libere

È facile notare come le motivazioni appena esposte dipingano un quadro che potremmo definire il classico “circolo vizioso”. Le cose però sembrano destinate a cambiare e già possiamo vedere le prime avvisaglie.

La prima è la comparsa di alcuni software “storicamente” orientati al mondo Windows. Parlo per esempio dell’annuncio degli sviluppatori di uTorrent riguardo al porting del loro famosissimo programma. Non che si senta il bisogno impellente di un altro client torrent, visto che esistono molteplici e valide alternative dal cuore aperto, ma la notizia fa capire che il desktop GNU/Linux inizia a entrare nei piani di chi in passato non lo considerava minimamente.

Altro caso recente è il rilascio della nuova versione di Guitar Pro che con la versione 6 è presente per tutte le piattaforme (MacOSX, GNU/Linux, Windows). Qui il merito va anche al framework Qt utilizzato per lo sviluppo che ha permesso di condividere grandissima parte del codice del progetto.

Vale la pena ricordare inoltre che Valve sta attualmente lavorando al porting del client Steam per GNU/Linux.

Se aggiungiamo a tutto questo un blueprint del Software Center di Ubuntu apparso su launchpad il 15 Giugno che recita:

Buy something in the software center

In Maverick we will offer *one thing* for sale to end users.

= In scope =
* Something, at least one thing, is available for purchase from the software center

= Out of scope =
* ability to add arbitrary items to the software center for sale
* self-service of adding items for sale

Possiamo capire come lentamente qualcosa si stia muovendo.

Personalmente sono un fermo sostenitore del software libero ma considero positivamente questi segnali. Se da un lato continuerò a utilizzare e possibilmente sostenere i progetti che utilizzo e che mi piacciono, dall’altro l’idea di avere una alternativa commerciale in certi ambiti non mi dispiace affatto.

Tra gli altri vantaggi la disponibilità di software commerciale potrebbe avvicinare tutti coloro che si vedono costretti a rimanere ad ancorati ad un sistema per un singolo programma. Ed un aumento di base installata porterà certamente a migliormaneti e investimenti in altri campi. Miglioramenti che saranno utili a tutti… anche a quelli che vorranno continuare a utilizzare soltanto software libero (scelta che ovviamente considero rispettabilissima).

Voglio quindi sbilanciarmi affermando che non solo la convivenza è possibile… ma è anche auspicabile.
Voi cosa ne pensate?

93 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Ian
     scrive: 

    Il software libero _è_ commerciale.

  • # 2
    collione
     scrive: 

    a me fanno ridere quelli che additano la mancanza di software professionale per linux come motivo della scarsa diffusione in ambito domestico

    dovrebbe essere chiaro che professionale e domestico sono due termini opposti

    linux non si diffonderà sui pc quando verrà portato autocad, autocad è irrilevante per l’utente comune

    così come photoshop che è sostituibile con programmi molto più semplici come pinta ( che è un clone di paint.net per linux )

    quello che fino ad oggi è mancato a linux è stata una rete di accordi commerciali con chi produce hardware….è inutile nascondere la verità e cioè che il monopolio di windows è in buona parte dovuta alla preinstallazione….il lockin ha fatto il resto

    e infatti in ambito mobile, dove abbiamo android che ha alle spalle google e tanti accordi commerciali, linux vende, linux funziona, linux è addirittura migliore dei concorrenti

    la diffusione di linux su pc necessita di:

    – focalizzare l’attenzione sulle necessità dell’utenza media ( cosa fa l’utente?, quali programmi gli servono realmente? )
    – stringere accordi con i produttori di hardware

    non si può non riconoscere che, oggi, ubuntu, fedora, mandrive, suse, sono adattassime all’utente comune che usa il pc per fruire di contenuti multimediali, realizzare contenuti testuali limitati ( non serve office, basta e avanza openoffice ), realizzare contenuti multimediali di base ( piccoli video ), fruire di internet, instant messaging e posta elettronica

    se si guarda, ad esempio, ad ubuntu 10.04 e all’integrazione che ne è stata fatta con i servizi social, si nota facilmente che è più adatto di windows a soddisfare i bisogni dell’utenza media

  • # 3
    pabloski
     scrive: 

    @lan: in che senso? se intendi nel senso che può essere venduto, beh si, ci sono aziende che ne hanno fatto un business….

    @collione: ottima analisi anche se ritengo che un ulteriore ostacolo è garantire un supporto certo, completo e definitivo all’hardware….tale supporto ovviamente è possibile stringendo accordi con i produttori di hardware, quindi vale sempre il solito discorso del creare una rete di accordi

    rimane però da stabilizzare il kernel, perchè allo stato attuale i cambiamenti sono troppi, troppo frequenti e troppo invasivi….il risultato è che un driver che ieri funzionava, oggi magari non funziona più

    in questo senso è opportuno che il testing avvenga a porte chiuse o almeno al di fuori dei canali distributivi….oggi l’utente ha la possibilità di mettere mano a versioni di linux di transizione….stiamo vivendo in prima persona la transizione verso gallium…..

    ubuntu 10.04 usa dri2/mesa, ma nel contempo è possibile installare gallium per testarlo….in certi contesti questo è stato fonte di problemi….kde4 è stato distribuito quando era ancora immaturo

    per fortuna, almeno ubuntu, ha una politica molto meno amatoriale nei rilasci e punta alla stabilità….in ubuntu gallium non sarà mai accettato ufficialmente fino a quando non sarà stabile….questa pratica è fondamentale e permette all’utente di percepire il sistema come stabile….

    ficcare in una release software instabile, roba sperimentale è un modo per allontanare l’utente

    proprio a proposito di gallium, dovrebbe porre l’ultima pietra per la stabilità del kernel….con gallium si colmerà l’ultima sacca di instabilità rimanente in linux

  • # 4
    Emanuele Rampichini (Autore del post)
     scrive: 

    @Ian
    In effetti avrei dovuto scrivere proprietario… sarebbe stata sicuramente una definizione più accurata. Il senso dell’articolo comunque non cambia di molto. Hai fatto bene a puntualizzare.

    @collione
    infatti ad inizio articolo ho fatto una distinzione su quello che erroneamente viene definito software “professionale”.

  • # 5
    Pikazul
     scrive: 

    Concordo con l’autore dell’articolo, di certo la maggior presenza di alternative non può fare che bene al mondo linux, ma ciò che conta davvero secondo me è la possibilità di poter cambiare “solo” OS.

    Cerco di spiegarmi: normalmente la risposta all’accusa della mancanza di software è “c’è questo che è il clone di X”, ma questa risposta non riesce ad essere soddisfacente nella maggior parte dei casi. Non solo molte volte questi cloni non sono all’altezza dell’originale, il punto è perchè mai io dovrei usare un “clone”? Già cambiare OS è una impresa titanica per qualcuno che ha sempre usato windows, costringerlo a cercare uno per uno i “cloni” dei suoi programmi preferiti, sperare che siano dotati di tutte le funzionalità e assolutamente identici nell’utilizzo è un ottimo modo per allontanarlo. E la sensazione di star usando solo un “clone” è generalmente il colpo di grazia.

    Ogni 100 persone che provano a cambiare OS solo 1 lo fa davvero, e generalmente lo fa per principio, non per comodità. Questo dovrebeb cambiare.

    Le applicazioni multipiattaforma (specialmente quelle open source) dovrebbero essere il cavallo di troia per far entrare linux nelle case. Firefox e OpenOffice sono ottimi esempi, chi li usa già con windows non avrà nessun problema ad usarli sotto linux, ma ci vuole anche tutto il resto. C’è bisogno insomma di programmi cross-platform che non solo siano in grado di coprire ogni esigenza, ma che siano i migliori, tanto da convincere gli utenti windows ad usarli sulle loro macchine, senza aspettarsi favoritismi perchè open-source.

    Questo è “l’ampliamento del parco software” di cui Linux ha davvero bisogno.
    Quando cambiare OS significherà cambiare solo il logo all’avvio e lo sfondo di default allora potremo assistere ad una vera ascesa del pinguino.

  • # 6
    TheKaneB
     scrive: 

    Mi sembra ieri quando per installare linux sul pc dovevi perdere giorni interi a ricompilare il kernel per includere questa o quell’altra patch, per supportare l’hardware più ostico, e spesso dovevi accontentarti di non usare al 100% l’hardware… Oggi addirittura possiamo leggere nella scatola di tanti prodotti “Compatibile con Windows Vista, 7, Mac OS X 10.5, 10.6 e Linux 2.6.23 o superiore”… come ad esempio stampanti, webcam, hard disk esterni…

    io non pensavo che si fosse mai arrivati a questo punto, ma evidentemente la marcia pinguina è lenta ma inesorabile :-)
    Nulla di strano se iniziamo a vedere sempre più programmi proprietari in giro. ;-)

  • # 7
    io
     scrive: 

    @collione: quando dici che la diffusione di linux su pc necessita di:
    – focalizzare l’attenzione sulle necessità dell’utenza media (cosa fa l’utente?, quali programmi gli servono realmente?)
    – stringere accordi con i produttori di hardware.

    io aggiungerei anche:
    – deve focalizzare l’attenzione su come l’utenza media usa il pc.

    NON è pensabile che per collegarsi ad internet con una ADSL con ubuntu si debba ricorrere alla consolle e scrivere “pon dsl-provider” e per disconnettersi “poff”. Assurdità totale

    purtroppo chi sviluppa su linux è un geek e sviluppa per geek.

  • # 8
    TheKaneB
     scrive: 

    ehm… “… non pensavo che *saremmo* mai arrivati…”

  • # 9
    makrov
     scrive: 

    molti software ci sono, e sn migliori, ma spesso delle mancabze marginali sono per l’utente medio(cre) irrinunciabili:

    esempio pidgin: multi protocollo, permette praticamente di fare tutto quello che si vuole avendo 1 sl prog, da msn a googletalk x passare alla chat di Facebook, ma x molti le emoticon del plus, le scritte colorate e la possibilità di fare una video chat su msn (si su msn -,- ) sono cose irrinunciabili, nn fa niente siano uno dei maggiori veicoli di infezioni virus

    stessa cosa la si puo dire per molti altri programmi, spesso piu difficili da usare (Gimp vs. Photoshop) o solo perchè ritenuti inferiori a priori

    certo il cross platform è il modo migliore di portare alle masse linux, ma spesso chi nn ne capisce associa la funzione al programma, e ormai browser=IE lettore audio=WMPlayer lettore video= WMPlayer foglio di calcolo= MS Excel foglio elettronico = MS Word
    e su queste cose finchè la patente europea per il computer continuerà a spiegare Excel e Word per altre soluzioni nn c’è spazio

  • # 10
    The Solutor
     scrive: 

    @collione

    Quello che scrivi è condivisibile, ma resta il fatto che la gente non cambia principalmente per pigrizia.

    E non serve arrivare fino a linux per accorgersene.

    Basta guardare al mondo dei browser su windows.

    C’e èxplorer e c’è firefox che come UI lo clona, e quindi qualcuno che passa a firefox c’è.

    Opera che da anni ha una incredibilmente migliore non fa breccia, nonostante la sua straordinaria comodità.

    Le innovazioni di opera finiscono poi per essere sistematicamente clonate sugli altri browser ed accettate degli utenti a piccole dosi.

    Su linux il discorso è simile ma ancora più esteso.

    Non importa che (da anni ) l’hw non sia più un problema, anzi.. non importa che buona parte del sw d’uso comune sia presente.

    Quello che importa è che quasi nessuno è disposto a muovere due neuroni per cambiare sia pur di poco le proprie abitudini.

    La gente ha perso la voglia (ed il piacere) di apprendere e non solo vuole la pappa pronta (per quello che mi riguarda qualsiasi distro da utonto, tipo la ubuntu, te la fornisce come e più di windows) , la vuole anche condita sempre nello stesso modo.

    Il fatto poi che la gente non percepisca neanche la differenza di prezzo fa il resto.

    Windows o ce l’hai preinstallato ed il costo non lo vedi, o ce l’hai piratato ed il costo non c’è proprio.

  • # 11
    homero
     scrive: 

    piu’ che software libero serve del buon software…libero e comemrciale che sia…
    ad ogni modo mathematica e compagnia sono su linux da anni senza problemi…
    cosi’ come i software the foundry sono sviluppati prima sotto linux e poi sotto windows.
    il problema del software è che ci deve essere qualcuno disposto a spendere i soldi….sia libero o commerciale….chi produce software lo fa per campare in genere e quindi ha bisogno di un ritorno economico…
    se gli utenti linux cominceranno a spendere soldi..non necessariamente nell’acquisto di licenze software ma anche solo di servizi legati ai software…questi comineranno a fioccare come non mai…

    il futuro credo che sarà questo…

    un appunto su un limite del sistema xwindows di gestione delle finestre..
    preferirei che fosse tutto piu’ snello e meno lambiccoso…
    programmare software grafici in linux è piu’ complesso che farlo in windows…
    magari un’interfaccia semplificata basata su librerie standard come opengl e mettere in pensione il vecchio sistema xwindows che ci porta al vecchiounix….

  • # 12
    Emanuele Rampichini (Autore del post)
     scrive: 

    @homero
    purtroppo X11 è qui per restare… almeno per un altro bel pezzo. C’è da dire che i vari framework nascondono molto bene la complessità sottostante e renderebbero una futura transizione più semplice. Ad oggi non c’è veramente bisogno di andare a sminestrare con le xlib a meno che non si voglia scrivere un toolkit grafico.

    Sarà interessante vedere come evolverà il giovanissimo progetto wayland:
    http://groups.google.com/group/wayland-display-server?pli=1

  • # 13
    Minatore
     scrive: 

    La maggior parte delle persone è monotona e abitudinaria, preferisce utilizzare software proprietari da schifo magari craccati per non pagarli invece di adeguarsi all’uso di nuovi programmi che dan uguali o maggiori possibilità ma appena nati e open surce.
    Io uso Fedora (linux) e tra software open e software free ho sempre trovato il modo di fare le cose meglio che se le facessi con software proprietari craccati o comprati.
    Per essere chiaro (cercando di essere non di parte) i problemi attuali di linux:
    Primo: I driver le periferiche strane ecc… i macchinari industriali sovente necessitano di drive che per linux non ci sono o di difficile reperibilità.
    Secondo: Alcuni servizi internet ecc.. alcuni laboratori tipografici ecc… pretendono dal cliente l’uso di programmi loro o l’invio di file come voglion loro per tanto se non è comodo cambiare xchè c’è convenienza economica si è obbligati a sottostare a certe specifiche e qui nascono problemi (il programma mal fatto x windows non gira sotto linux, non si trova il programma che salva i file in formato corel draw per la tipografia ecc….)
    Terzo: hai il mondo contro, la società attuale va dietro a chi ha denaro, quindi nelle scuole insegnano ad usare programmi proprietari, la maggior parte della gente è abituata ad usare programmi proprietari e quindi l’abitubine non la si cambia. Anche se i programmi open surce vengono un po in contro a questo, leggono i file dei formati proprietari, salvano nel formato dei programmi a pagamento (cosa che i programmi a pagamento non fanno) anche se i programmi open surce per tante cose arrivano prima, librerie migliori, funzioni, migliori ecc… I programmi a pagamento saranno sempre più pubblicizzati.

  • # 14
    j
     scrive: 

    sono sostanzialmente d’ accordo su tutto, ma trovo opportuno aggiungere qualcosa a quanto detto, per cui inizio col rispondere all’ ultima domanda :D

    Voglio quindi sbilanciarmi affermando che non solo la convivenza è possibile… ma è anche auspicabile.
    Voi cosa ne pensate?

    che su questo hai perfettamente ragione

    se è vero, come so di non essere l’ unico a sostenere, che l’ utilità di un sistema operativo (in quanto piattaforma per eseguire applicazioni, *idealmente* trasparente all’ utente che per lavorare usa queste ultime e non il sistema operativo in sè) si misura principalmente in quella appunto delle applicazioni che è in grado di far girare – e se è vero come è vero che le applicazioni standard di riferimento in certi ambiti industriali / operativi sono applicazioni commerciali (e quindi l’ utente necessita di quelle, e ripiegare su sw libero per svolgere “quel” tipo di lavoro non è un’ opzione), allora un sistema operativo che non supporti quelle applicazioni verrà inevitabilmente visto come inadatto a quegli ambiti operativi, e meno capace di uno che invece le supporti
    quindi, c’è tutta la convenienza a supportarle

    Quello che molti chiamano software professionale può essere inquadrato in quella fascia intermedia ben descritta dal termine termine “prosumer“. Per intenderci mi sto riferendo a quella famiglia di software scatolati che si trovano nella fascia di prezzo tra i 30€ e i 100€.

    che in effetti sono la fascia più interessante, e perchè è quella più solitamente dimenticata (la gente parla sempre e solo di photoshop e autocad vs sw libero, quando in realtà esiste tutto un sottobosco di soluzioni intermedie) e perchè si situa allo stesso ordine di grandezza del costo di una licenza OEM di windows ( o di una volume license nel caso di sistema preinstallato su dekstop o notebook brand) , che sarebbe un problema relativo nel quadro dell’ ammortamento delle spese quando associato a un’ applicazione applicazione high end da migliaia di euro
    far girare quest’ ultima su un sistema operativo gratuito non porta a un risparmio considerevole, e l’ utilità di farlo dipende da altri fattori (altre applicazioni o tool necessari nel workflow aziendale), ma per il target di un’ applicazione da 50 euro (magari utenti domestici) ogni euro risprmiato può fare la differenza

    I motivi che vengono in mente per spiegare questa mancanza sono molteplici:
    Necessità di riscrivere il proprio programma per una piattaforma su cui non si ha esperienza
    Scarsa diffusione della piattaforma tale da non giustificare la spesa
    Scarsa comprensione dell’ecosistema
    Serrata concorrenza di alternative libere

    a queste credo che però vadano aggiunte quantomeno:
    – Frammentazione dell’ ecosistema
    – Volatilità delle API afferenti
    – Carenza di tool e funzionalità / semplicità d’ uso ( che a livello professionale si traducono in produttività, quindi convenienza a fronte di investimenti) di quelli presenti

    non solo l’ ecosistema linux ( o gnu/linux che dir si voglia) costituisce l’ 1 – 1.% del “mercato” desktop, ma è innegabilmente frammentato in una pletora di distribuzioni

    ora, per quanto molti considerino l’ assetto attuale, la presenza di distribuzioni indipendenti (ognuna col il proprio repository di pacchetti terzi), il modo perfetto in cui tutto il sw dovrebbe essere sviluppato e distribuito (principalmente per l’ apparente comodità dei repository – cosa che invece il sottoscritto, per dire, detesta, non sopportando i “cordoni ombelicali” e i “walled garden” in genere)
    ci si dimentica che in ambito sw ogni variazione tra una versione e l’ altra implica la necessità di un code path ad hoc e/ o come minimo, un test case ad hoc per supportarla

    se tra due distribuzioni cambia la posizione di qualche file richiesto dall’ applicazione, devo tenerne conto nel codice, verrà fuori una nuova versione (specifica per quel caso) della mia applicazione, versione che si aggiungerà a quelle su cui dovrò fare supporto e fix per la durata del suo ciclo di vita

    se cambiano delle API (per dire, a un certo punto è uscito questo nuovo server sonoro, e tutti lo hanno adottato da un momento all’ altro quando ancora non era del tutto maturo – nulla garantisce che in futuro non accada di nuovo, ancora sul sistema audio, che è tutto meno che soddisfacente, o in qualche altro sottosistema) dovrò scrivere un nuovo code path, avrò una build ad hoc e dovrò supportarla

    se ci sono cambiamenti a livello di simboli (variante più sottile del cambiamento di una API – pur restando invariata la signature di una funzione può cambiare la semantica di un parametro passato a quella funzione, ad esempio il bit 17 di un valore a 32 bit potrebbe cambiare arbitrariamente, magari come ottimizazione, il suo significato da attivo se 1 ad attivo se 0) dovrò di nuovo tenerne conto nel codice (altrimenti no good se il mio sw si occupa di emulare l’ istruzione Halt then Catch Fire – HCF -del 68000… rischio l’ autocombustione della macchina nel momento sbagliato)

    quindi in teoria una sw house per essere sicura di coprire tutta l’ utenza linux, dovrebbe per ogni distribuzione (se si limitasse a, per dire, fedora e ubuntu per definizione coprirebbe una percentuale minore dell’ 1% di cui sopra e il gioco varrebbe ancora meno la candela), analizzare di volta la configurazione effettivamente shipped/deployed di ogni release e vedere se ci sono cambiamenti a livello di sottosistemi impiegati e api afferenti, ed eventualmente tenerne conto nel codice – quindi la presenza di più distribuzioni in effetti moltiplica per N gli sforzi implementativi e quindi i costi di sviluppo, rendendolo ancora meno conveniente

    a questo si aggiunge il problema che variazioni nelle API possono avvenire (per vari motivi tra cui, è successo, atteggiamenti egoistici di sviluppatori di componenti chiave) senza preavviso, con interfaccie e librerie esistenti (relative a componenti a volte funzionanti ancorchè “obsoleti”) improvvisamente deprecate e rimosse arbitrariamente – costringendo qualunque utente di quelle api ad adeguarsi riscrivendo le proprie applicazioni
    ora subire un’ imposizione del genere a fronte della possibilità dei vedere la propria applicazione cadere nel dimenticatoio ( utenti che aggiornano il sistema o scaricano la nuova versione della distribuzione -> utenti che vedono che l’ applicazione smette di funzionare -> utenti che smettono di usare l’ applicazione e ne cercano un’ alternativa) è già fastidioso per dei programmatori magari hobbysti…

    ma per una società che investe denaro nello sviluppo, l’ incertezza di potersi trovare a doversi accollare dei costi extra imprevisti a causa di decisioni prese da altri, a distanza che può essere di 3 mesi come di un anno (di nuovo, a seconda di cosa altri decidono, sostanzialmente fregandosene di coloro che dalle loro decisioni dipendono), può essere un ostacolo insormontabile

    API stabili almeno per un certo periodo e supportate tra tutte le versioni di una gamma di prodotti, cicli di vita programmati e più lunghi di qualche mese, ecc, danno certezze e consentono di pianificare gli investimenti – se non solo, è anche per questo che gli isv in larga parte preferiscono windows e osx al desktop linux

    poi certo, esiste una cosa che si chiama ubuntu LTS (dove l’ lts si riferisce appunto al freeze funzionale e alla stabilità delle api per un paio d’ anni), lo so bene, ma c’è un problema – la lts non è “ubuntu”, cioè non ne è la versione corrente che è ciò che usa la maggior parte dell’ utenza ubuntu in effetti
    ora, se l’ utenza della LTS costituisce un subset dell’ utenza di ubuntu che a sua volta costituisce un subset dell’ utenza linux che rappresenta l’ 1% …

    È facile notare come le motivazioni appena esposte dipingano un quadro che potremmo definire il classico “circolo vizioso”.

    detto anche “dilemma dell’ uovo e della gallina” :D
    una cosa interessante che credo vada detta è che microsoft lo ha spezzato quando nei primi anni 90 ha sostanzialmente cominciato a pagare gli ISV per prendere in considerazione DOS e windows e ha cominciato a fornire loro strumenti di sviluppo degni di questo nome

    in quantomeno una parte (ma una parte che condiziona l’ impressione globale) dell’ utenza linux vige ancora la mentalità che il programmatore di applicazioni o giochi debba accontentarsi su linux di strumenti più spartani di quelli che ha disposizione su altre piattaforme, come se in effetti non avesse un vero bisogno di questi ultimi
    ricordo ancora il caso di Johnathan Blow (autore di un bellissimo gioco indie per xbox, dal gamplay originale) – era sua seria intenzione portare il gioco su linux, ma ha finito per desistere quando ha capito che quello che aveva bisogno di fare (mandare audio in uscita in forma grezza bypassando la miscelazione – in braid il gameplay si basa sull’ alterazione e riavvolgimento del tempo, e l’ audio è riprodotto a velocità variabile, al contrario ecc) era sostanzialmente infattibile, e GCC ed emacs gli sono stati presentato come il massimo che un vero programmatore potesse sognare (quando uno sviluppatore di giochi sotto windows ha bena altro, a cominciare dai debugger intuitivi per GPU shader)

  • # 15
    G
     scrive: 

    Perchè un impiegato dovrebbe perdere tempo a dover re-imparare ad utilizzare un SO/applicativo che fa il lavoro che deve fare? E perchè anche una casalinga, che già ha faticato ad usare minimamente il pc, dovrebbe ricominciare dall’inizio?
    Inutile prendersi in giro , il mondo dell’informatica va sempre piu’ nella direzione “Apple” : pronto, impacchettato e servito. Ma è anche giusto cosi’, se non fosse esistita un interfaccia grafica oggi i pc sarebbero usati da 1/100 delle persone che li usano. E probabilmente io, e molti di quelli che scrivono qui, faremmo un altro lavoro, per semplice mancanza di mercato.
    Definirli pigri, o criticare la loro mancanza di voglia di apprendere è un atteggiamento da geek e commercialmente ottuso.

  • # 16
    The Solutor
     scrive: 

    Perchè un impiegato dovrebbe perdere tempo a dover re-imparare ad utilizzare un SO/applicativo che fa il lavoro che deve fare?

    Piu o meno per lo stesso motivo per cui un programmatore, un tecnico qualsiasi, un insegnante che fa bene il suo lavoro se stanno fermi 2 giorni sono fuori mercato.

    Poi che questa sia fantascienza è un altro paio di maniche, buona parte della gente una volta conquistato un lavoro fisso usa la zucca unicamente per cercare di arrivare al giorno dello stipendio con il minimo dispendio di energie possibile.

  • # 17
    Emanuele Rampichini (Autore del post)
     scrive: 

    Riporto un commento dell’utente j che mi è arrivato via mail ma non riesco a trovare nei meandri dell’antispam:

    sono sostanzialmente d’ accordo su tutto, ma trovo opportuno aggiungere qualcosa a quanto detto, per cui inizio col rispondere all’ ultima domanda :D

    Voglio quindi sbilanciarmi affermando che non solo la convivenza è possibile… ma è anche auspicabile.
    Voi cosa ne pensate?

    che su questo hai perfettamente ragione

    se è vero, come so di non essere l’ unico a sostenere, che l’ utilità di un sistema operativo (in quanto piattaforma per eseguire applicazioni, *idealmente* trasparente all’ utente che per lavorare usa queste ultime e non il sistema operativo in sè) si misura principalmente in quella appunto delle applicazioni che è in grado di far girare – e se è vero come è vero che le applicazioni standard di riferimento in certi ambiti industriali / operativi sono applicazioni commerciali (e quindi l’ utente necessita di quelle, e ripiegare su sw libero per svolgere “quel” tipo di lavoro non è un’ opzione), allora un sistema operativo che non supporti quelle applicazioni verrà inevitabilmente visto come inadatto a quegli ambiti operativi, e meno capace di uno che invece le supporti
    quindi, c’è tutta la convenienza a supportarle

    Quello che molti chiamano software professionale può essere inquadrato in quella fascia intermedia ben descritta dal termine termine “prosumer“. Per intenderci mi sto riferendo a quella famiglia di software scatolati che si trovano nella fascia di prezzo tra i 30€ e i 100€.

    che in effetti sono la fascia più interessante, e perchè è quella più solitamente dimenticata (la gente parla sempre e solo di photoshop e autocad vs sw libero, quando in realtà esiste tutto un sottobosco di soluzioni intermedie) e perchè si situa allo stesso ordine di grandezza del costo di una licenza OEM di windows ( o di una volume license nel caso di sistema preinstallato su dekstop o notebook brand) , che sarebbe un problema relativo nel quadro dell’ ammortamento delle spese quando associato a un’ applicazione applicazione high end da migliaia di euro
    far girare quest’ ultima su un sistema operativo gratuito non porta a un risparmio considerevole, e l’ utilità di farlo dipende da altri fattori (altre applicazioni o tool necessari nel workflow aziendale), ma per il target di un’ applicazione da 50 euro (magari utenti domestici) ogni euro risprmiato può fare la differenza

    I motivi che vengono in mente per spiegare questa mancanza sono molteplici:
    Necessità di riscrivere il proprio programma per una piattaforma su cui non si ha esperienza
    Scarsa diffusione della piattaforma tale da non giustificare la spesa
    Scarsa comprensione dell’ecosistema
    Serrata concorrenza di alternative libere

    a queste credo che però vadano aggiunte quantomeno:
    – Frammentazione dell’ ecosistema
    – Volatilità delle API afferenti
    – Carenza di tool e funzionalità / semplicità d’ uso ( che a livello professionale si traducono in produttività, quindi convenienza a fronte di investimenti) di quelli presenti

    non solo l’ ecosistema linux ( o gnu/linux che dir si voglia) costituisce l’ 1 – 1.% del “mercato” desktop, ma è innegabilmente frammentato in una pletora di distribuzioni

    ora, per quanto molti considerino l’ assetto attuale, la presenza di distribuzioni indipendenti (ognuna col il proprio repository di pacchetti terzi), il modo perfetto in cui tutto il sw dovrebbe essere sviluppato e distribuito (principalmente per l’ apparente comodità dei repository – cosa che invece il sottoscritto, per dire, detesta, non sopportando i “cordoni ombelicali” e i “walled garden” in genere)
    ci si dimentica che in ambito sw ogni variazione tra una versione e l’ altra implica la necessità di un code path ad hoc e/ o come minimo, un test case ad hoc per supportarla

    se tra due distribuzioni cambia la posizione di qualche file richiesto dall’ applicazione, devo tenerne conto nel codice, verrà fuori una nuova versione (specifica per quel caso) della mia applicazione, versione che si aggiungerà a quelle su cui dovrò fare supporto e fix per la durata del suo ciclo di vita

    se cambiano delle API (per dire, a un certo punto è uscito questo nuovo server sonoro, e tutti lo hanno adottato da un momento all’ altro quando ancora non era del tutto maturo – nulla garantisce che in futuro non accada di nuovo, ancora sul sistema audio, che è tutto meno che soddisfacente, o in qualche altro sottosistema) dovrò scrivere un nuovo code path, avrò una build ad hoc e dovrò supportarla

    se ci sono cambiamenti a livello di simboli (variante più sottile del cambiamento di una API – pur restando invariata la signature di una funzione può cambiare la semantica di un parametro passato a quella funzione, ad esempio il bit 17 di un valore a 32 bit potrebbe cambiare arbitrariamente, magari come ottimizazione, il suo significato da attivo se 1 ad attivo se 0) dovrò di nuovo tenerne conto nel codice (altrimenti no good se il mio sw si occupa di emulare l’ istruzione Halt then Catch Fire – HCF -del 68000… rischio l’ autocombustione della macchina nel momento sbagliato)

    quindi in teoria una sw house per essere sicura di coprire tutta l’ utenza linux, dovrebbe per ogni distribuzione (se si limitasse a, per dire, fedora e ubuntu per definizione coprirebbe una percentuale minore dell’ 1% di cui sopra e il gioco varrebbe ancora meno la candela), analizzare di volta la configurazione effettivamente shipped/deployed di ogni release e vedere se ci sono cambiamenti a livello di sottosistemi impiegati e api afferenti, ed eventualmente tenerne conto nel codice – quindi la presenza di più distribuzioni in effetti moltiplica per N gli sforzi implementativi e quindi i costi di sviluppo, rendendolo ancora meno conveniente

    a questo si aggiunge il problema che variazioni nelle API possono avvenire (per vari motivi tra cui, è successo, atteggiamenti egoistici di sviluppatori di componenti chiave) senza preavviso, con interfaccie e librerie esistenti (relative a componenti a volte funzionanti ancorchè “obsoleti”) improvvisamente deprecate e rimosse arbitrariamente – costringendo qualunque utente di quelle api ad adeguarsi riscrivendo le proprie applicazioni
    ora subire un’ imposizione del genere a fronte della possibilità dei vedere la propria applicazione cadere nel dimenticatoio ( utenti che aggiornano il sistema o scaricano la nuova versione della distribuzione -> utenti che vedono che l’ applicazione smette di funzionare -> utenti che smettono di usare l’ applicazione e ne cercano un’ alternativa) è già fastidioso per dei programmatori magari hobbysti…

    ma per una società che investe denaro nello sviluppo, l’ incertezza di potersi trovare a doversi accollare dei costi extra imprevisti a causa di decisioni prese da altri, a distanza che può essere di 3 mesi come di un anno (di nuovo, a seconda di cosa altri decidono, sostanzialmente fregandosene di coloro che dalle loro decisioni dipendono), può essere un ostacolo insormontabile

    API stabili almeno per un certo periodo e supportate tra tutte le versioni di una gamma di prodotti, cicli di vita programmati e più lunghi di qualche mese, ecc, danno certezze e consentono di pianificare gli investimenti – se non solo, è anche per questo che gli isv in larga parte preferiscono windows e osx al desktop linux

    poi certo, esiste una cosa che si chiama ubuntu LTS (dove l’ lts si riferisce appunto al freeze funzionale e alla stabilità delle api per un paio d’ anni), lo so bene, ma c’è un problema – la lts non è “ubuntu”, cioè non ne è la versione corrente che è ciò che usa la maggior parte dell’ utenza ubuntu in effetti
    ora, se l’ utenza della LTS costituisce un subset dell’ utenza di ubuntu che a sua volta costituisce un subset dell’ utenza linux che rappresenta l’ 1% …

    È facile notare come le motivazioni appena esposte dipingano un quadro che potremmo definire il classico “circolo vizioso”.

    detto anche “dilemma dell’ uovo e della gallina” :D
    una cosa interessante che credo vada detta è che microsoft lo ha spezzato quando nei primi anni 90 ha sostanzialmente cominciato a pagare gli ISV per prendere in considerazione DOS e windows e ha cominciato a fornire loro strumenti di sviluppo degni di questo nome

    in quantomeno una parte (ma una parte che condiziona l’ impressione globale) dell’ utenza linux vige ancora la mentalità che il programmatore di applicazioni o giochi debba accontentarsi su linux di strumenti più spartani di quelli che ha disposizione su altre piattaforme, come se in effetti non avesse un vero bisogno di questi ultimi
    ricordo ancora il caso di Johnathan Blow (autore di un bellissimo gioco indie per xbox, dal gamplay originale) – era sua seria intenzione portare il gioco su linux, ma ha finito per desistere quando ha capito che quello che aveva bisogno di fare (mandare audio in uscita in forma grezza bypassando la miscelazione – in braid il gameplay si basa sull’ alterazione e riavvolgimento del tempo, e l’ audio è riprodotto a velocità variabile, al contrario ecc) era sostanzialmente infattibile, e GCC ed emacs gli sono stati presentato come il massimo che un vero programmatore potesse sognare (quando uno sviluppatore di giochi sotto windows ha bena altro, a cominciare dai debugger intuitivi per GPU shader)

  • # 18
    Bruno
     scrive: 

    Concordo in tutto con G.

    Non solo, se ragioniamo ad esempio relativamente all’ambiente professionale il principio che vale è che se un software funziona tutte le scelte vertono su quello.
    Ho conosciuto aziende che cercavano PC vecchi per non cambiare i vecchi programmi Clipper.
    Le aziende sono piene di sw AS400 in emulazione terminale. Per questi qui la soluzione più semplice è la più opportuna, quindi se va Windows si continua con Windows. Non a caso Vista è stato un fallimento e in Seven hanno introdotto la “Modalità XP”, le imprese sceglievano XP per essere sicure di non dover mettere mano al parco sw.
    Questo approccio può sembrarvi assurdo, essendo quasi tutti voi appassionati di informatica, ma è alla base di tantissime scelte nel mondo professionale

  • # 19
    Gurzo2007
     scrive: 

    @The Solutor

    gli esempi da te citati non c’entrano l’uno con l’altro…

    un conto è imparare ad usare la nuova versione di photoshop cs5( che porta sostanziali migliorie e nuove features rispetto alla cs4 che si ipotizza uno può già avere e usare per lavoro) un conto e mettermi da zero a imparare gimp

  • # 20
    j
     scrive: 

    Piu o meno per lo stesso motivo per cui un programmatore, un tecnico qualsiasi, un insegnante che fa bene il suo lavoro se stanno fermi 2 giorni sono fuori mercato.
    il programmatore (e il geek) deve adeguarsi constantemente perchè quello che “vede” nel livello a cui opera, è l’ insieme di tecnologie che compongono il panorama dello sviluppo sw, e questo è un panorama in continua e rapida evoluzione

    ma un professionista di altro tipo si troverà a fare i conti con l’ eventuale evoluzione del suo settore, evoluzione che può benissimo essere meno rapida e meno radicale

    soprattutto, per quanto attiene la parte informatica della sua professione, ben difficilmente avrà a che fare con le tecnologie informatiche in quanto tali, ma tutt’ al più con strumenti basati su di esse e che da esse isolano l’ utente (all’ utente di OLE, COM/COM+ ecc, o che queste o altre come queste siano o non siano in uso, o obosolete e in procinto di essere sotituite o che altro, non interesserà di meno – esserne a conoscenza intressa solo all’ eventuale sviluppatore, è a lui che compterà prendere eventuali precauzioni, eventualmente reimplementare tecnologie sostitutive eccetera –
    quindi non puoi imporre ad un utente di adeguarsi ai mutamenti di tecnologie informatiche che lo toccano solo marginalmente o per nulla)
    strumenti che allo sviluppatore compete di realizzare applicando criteri riconosicuti e insegnati ovunque in merito al sw desgin, per assecondare le esigenze dell’ utente, quindi affinchè siano sempre consistenti con il workflow di quest’ ultimo – e con sè stessi tra un versione e l’ altra ( a meno di cambiamenti radicali nelle esigenze dell’ utente o fondati motivi quali l’ aumento sostanziale della facilità d’ uso raggruppando funzioni in aree d’ interesse – vedi ribbon – ma in nessun modo è giustificabile un peggioramento della consistenza e della facilità d’ uso)

    fare diversamente denoterebbe un programmatore che sviluppi solo per sè stesso e non in funzione della sua utenza, quindi o un amatore non pagato, o uno scadente professionista

    buona parte della gente una volta conquistato un lavoro fisso usa la zucca unicamente per cercare di arrivare al giorno dello stipendio con il minimo dispendio di energie possibile.

    sai com’è, per buona parte della gente è già abbastanza impegnativo stare dietro al normale lavoro (magari la caterva di pratiche, lettere, traduzioni,contabilità ecc da sbrigare – e sto parlando solo di un semplice impiegato/a), stare dietro anche alle evoluzioni di quello che dovrebbe essere il più trasparente possibile è se non privo di senso, privo di vantaggi /benefici concreti, quindi in pratica inutile

  • # 21
    The Solutor
     scrive: 

    @gurzo

    Ma che ci azzecca gimp ?(che per altro non è mai passato per la testa di imparare neanche a me )

    Qua la gente non è in grado di cliccare sull’icona di Outlook se gliela sposti dal desktop alla quicklaunch, figuriamoci usare gnome o roba da ricercatori nucleari tipo kde…
    E ti garantisco che (come da mia abitudine) evito di dire sciocchezze solo per prevalere in una discussione.

    Se porto un esempio lo porto perché posso sostenerlo coi fatti e/o perché deriva dalla esperienza diretta.

    E nel caso specifico, oltre che 13 anni anni di uso di linux e una 20ina passati a contatto degli utenti finali qualche conclusione mi ha consentito di trarla.

    Solo pochi mesi fa ho installato a scopo sperimentale linux su qualche pc di un internet point e la conclusione è disarmante.

    Nemmeno in un posto dove si usa praticamente solo il browser la gente è in grado di schiodarsi dall’imprinting ricevuto.

    Per la gente comune internet=explorer e stop.

  • # 22
    j
     scrive: 

    ER: lavorando non avevo nemmeno fatto caso che si fosse perso il post nei meandri dell’ antispam , grazie :D

    PS: mi sono accorto ora che per lo stesso motivo in quello qui sopra sono presenti vari errori di digitazione e manca un “blockquote” e la dedica
    spero si capisca che era rivolto a The Solutor u_u

  • # 23
    JPage89
     scrive: 

    Parlo da utente Linux
    Linux non approderà MAI nell’utenza desktop in modo definitivo
    finché non si decide a rendere tutto USABILE
    esempio: provate a creare un archivio vuoto.
    E’ la cosa più difficile del mondo, per chi non ne mastica un po’.
    Su windows con winrar ci metti 2 secondi.
    Non è il cubo 3d che serve, non è avere 35 interfacce diverse
    sono queste piccole cose di usabilità che determinano un successo

  • # 24
    The Solutor
     scrive: 

    ma un professionista di altro tipo si troverà a fare i conti con l’ eventuale evoluzione del suo settore, evoluzione che può benissimo essere meno rapida e meno radicale

    Definiscimi “suo” settore.

    Nel bene o nel male l’informatica è entrata a fare parte della vita di quasi qualsiasi lavoro.

    Solo la settimana scorsa il mio meccanico stava per farmi spendere 1200 euro di riparazione (a vuoto), a causa della mancanza di una informazione tecnica che io ho reperito nel giro di 3 minuti di ricerca su internet.

    E non è la prima volta.
    Ed il ragionamento si applica preticamente ovunque.

    Come non è necessario essere un tassista o un pilota per sapere guidare un auto, non è necessario essere un programmatore per sentirsi in DOVERE di padroneggiare un minimo di IT.

    Ma quando anche su un posto tecnico come AD si leggono commenti di gente che non l’ha ancora afferrato piu che farsi cadere le braccia non si può fare.

    sai com’è, per buona parte della gente è già abbastanza impegnativo stare dietro al normale lavoro (magari la caterva di pratiche, lettere, traduzioni,contabilità ecc da sbrigare – e sto parlando solo di un semplice impiegato/a)

    Eh, certo certo, magari raccontalo a qualche cliente di mia conoscenza dove gli impiegati avevano messo su la gara: chi tocca la biro per primo paga la colazione per tutti…

  • # 25
    The Solutor
     scrive: 

    Jpage89

    Ma con tutti gli esempi che potevi cercare, proprio l’archivio vuoto ?

    Non credo di avere mai sentito la necessità di crearne uno.

    Tu, curiosità, che ci fai con gli archivi vuoti ?

  • # 26
    JPage89
     scrive: 

    Ne crei uno per POI metterci quello che vuoi, no?
    e poi non dire “con tutti gli esempi”, perché se una cosa la devo USARE, devo poterci fare TUTTO quello che voglio fare, io utonto comune che me ne sbatto di GPL, BSD e altre licenze
    GIMP, per farti anche un altro esempio, è praticamente l’anti-usabilità, Pinta è troppo pesante per quello che deve fare (fare le cose con Mono su Linux mi sembra una cavolata, ma vabbè, son gusti…)
    Paint se devo modificare 2 cavolate è leggero e perfetto, e Photoshop è ASSOLUTAMENTE ineguagliato, allo stato attuale

  • # 27
    io
     scrive: 

    quoto JPage89
    senza scendere nei dettagli di questo o quel sw, basta vedere l’usabilità di un sw come nautilus, che in pratica è la prima interfaccia contro cui sbatti quando apri ubuntu.

    – non si possono attivare/disattivare al volo le anteprime
    – non si può scrivere il percorso che vuoi nella barra degli indirizzi
    – non si può aprire/chiudere facilmente la sidebar e cambiarne il contenuto senza fare 15 click (il browser Opera è superlativo e tutt’ora insuperato in questo)
    – la configurabilità è bassissima
    – in modalità singolo clic non si può praticamente selezionare i file
    eccetera eccetera.

    Se parliamo di gimp, imho è buono. ma sono SECOLI che gli utenti chiedono una interfaccia DECENTE e gli sviluppatori se ne sbattono.

  • # 28
    io
     scrive: 

    dimenticavo.
    il tasto WIN presente da 20 anni su tutte le tastiere NON può essere configurato come sotto windows. Neanche smadonnando.

  • # 29
    The Solutor
     scrive: 

    Hai ovviamente ragione, tutti i gusti sono gusti, personalmente visto che posso crearlo già pieno di quello che voglio archiviare, lo step archivio vuoto me lo risparmio volentieri.

    Peraltro, anch’io vorrei la history permanente e le feature di bash sotto windows.

    Non ci sono, almeno col sw di serie, per cui faccio mente locale e cose che sotto linux faccio comodamente a linea di comando, sotto windows le faccio via gui.

    Non c’è scritto da nessuna parte che le cose si debbano fare allo stesso modo, ed onestamente non vedo dove stia il problema.

    Che poi i programmi di base come browser e client email possano funzionare allo stesso modo ci sta tutto (o quasi).

  • # 30
    collione
     scrive: 

    @io: nota che però la situazione migliora di continuo….tu hai citato l’esempio della connessione adsl tramite modem, con i router linux non dà nessun problema

    ad esempio ho notato che il supporto alle connessioni 3g è impressionante….colleghi la chiavetta o il cellulare e da network manager scegli il provider e ti connetti….non devi inserire nemmeno i dati relativi al provider

    secondo me c’è meno interesse nel migliorare la connessione via modem perchè i modem adsl vanno estinguendosi

    @The Solutor: è vero e questo significa semplicemente che bisogna rendere il sistema a prova di stupido

    non è un caso che apple fa segnare record in tutti i settori, dagli smartphone ai mac ( +248% nell’ultimo trimestre )

    windows regge perchè è preinstallato….quello che bisogna fare è fare accordi con gli oem per preinstallarlo sul maggior numero di pc possibile, creare un ambiente che non spiazzi troppo l’utente e soprattutto un ambiente che sia immediato da server ( ubuntu in questo senso ha fatto e sta facendo un ottimo lavoro )

  • # 31
    marcello
     scrive: 

    Il problema delle API che cambiano e’ un non problema, su programmi di una certa entita’ si puo’ anche procedere con il link statico e amen…al piu’ occuperanno un po piu’ di spazio su disco…

  • # 32
    spyrotsk
     scrive: 

    Sinceramente?
    è una scusa del ca**o.
    Quando un software è fatto con le palle e si ha un’assistenza da parte dell’azienda sviluppatrice fatta bene, anche se i software è open, free o closed, i fork/cloni non nascono, oppure se nascono, muoiono o rimangono di nicchia.

    Guardate blender, quanti software open ci sono come blender sotto linux/win/mac?
    Quanto quanti software open ci sono come Gimp linux/win/mac?
    Quanto quanti software open ci sono come Open Office linux/win/mac?

    Oppure anche closed…
    trovatemi un’alternativa ad Adobe Inferno.

    sono solo scuse per dire “non abbiamo soldi/tempo da spendere su linux”

  • # 33
    Ramino
     scrive: 

    Linux non decollerà mai. Non finché sarà frammentato in “distro“.
    Io trovo a volte un incubo installare qualcosa che non sia già previsto in “repository“ della distro (repository, che nome, sa di cimitero!), non puoi chiedere all’utente comune di compilare sorgenti o nemmeno di adattare file di configurazione o scriverli da zero o “sudare“.
    Io sono un utente comune e fors’anche “power user“ e dico che il discorso distro + repository è perdente. Punto.
    Ho usato “Linux“ in varie salse e non voglio sentirne parlare per un bel pezzo, uso Windows e tutto software open freeware o closed freeware o a pagamento (assai meno) su Windows, ce n’è una marea e fa quello che mi serve con la certezza quasi matematica di poterlo veder funzionare non solo sul mio PC ma su tanti altri senza sforzarmi per installarlo, pochi clic ed è fatta.
    Con le “distro“ non puoi farlo, non con serenità, o becchi la versione specifica per la “distro“, o la becchi dal “repository“, o ti attacchi e tieni forte e capita troppo spesso. Peccato.
    Auspico che lo sviluppo di Gnu/Linux si diriga verso una sola distro “consumer“ con tutti i vantaggi innegabili che ciò porterebbe, diversamente beh, non si diffonderà mai quanto potrebbe meritare e resterà come ora una nicchia assai poco interessante ai più.

  • # 34
    Minatore
     scrive: 

    Quella dell’archivio vuoto mi lascia veramente perplesso.
    Scusa è tanto semplice se vuoi fare un archivio avrai dei file da mettere no?
    La logica dice che scegli i file li selezioni tasto destro comprimi…
    poi se vuoi ne aggiungi.
    Solo un sistema stupido come windows permette di creare un falso file di compressione.

    Forse poi ci anche come fai a deframmentare x velocizzare il pc con linux?

    Oppure perchè non trovi un ccleaner per linux?

    Una cosa complicata da fare con certe distro linux x esempio è la copia ricorsiva di file non noti ( che da dos è facile)
    Es: copy C:\pippo\???cd.* C:\pluto\*.*

  • # 35
    Gurzo2007
     scrive: 

    @The Solutor
    forse perchè la tua risposta a :

    “Perchè un impiegato dovrebbe perdere tempo a dover re-imparare ad utilizzare un SO/applicativo che fa il lavoro che deve fare?”

    non ci azzecca una fava? dato che l’impiegato è diverso da programmatore-tecnico? se un’impiegato usa già un programma/so specifico perchè dovrebbe cambiare e perdere tempo a imparare altri programmi e so che fanno la stessa cosa che faceva con i vecchi?

    ed ecco il mio esempio di photoshop e gimp

    per il discorso programmatore -tecnico ti ha già risposto j

  • # 36
    collione
     scrive: 

    @marcello: dipende da quali api cambiano

    se linux cambia le syscall, linkando la libc staticamente ti freghi sul serio e il tuo programma finirà per non funzionare

  • # 37
    Minatore
     scrive: 

    Per Gurzo2007

    “Perchè un impiegato dovrebbe perdere tempo a dover re-imparare ad utilizzare un SO/applicativo che fa il lavoro che deve fare?”

    Risposta: l’impiegato intelligente impara cose diverse perchè fa parte della sua cultura e prova cose diverse. L’impiegato monotono che non ha voglia di imparare e continua ad usare le stesse cose ha una professionalità pari ad una scimmia addestrata.

    Dove lavoro io ci son cartelle condivise in xp senza pasword sotto firewall
    il firewall (comodo firewall) consente l’accesso a queste cartelle a solo ip noti e solo le porte di condivisione di queste cartelle.
    Ora con un pc xp (mettendo ip ecc…) la condivisione va a buon fine
    con linux provato già ubuntu, fedora, e suse tutto ok
    con Vista si connette poi perde la connessione bisogna riavviare ma se si lavora la perde
    Con windows 7 stessa cosa.
    Han il servizio microsoft la risposta è stata che xp è obsoleto e quindi ha una condivisione di cartelle diversa da Vista e 7.

  • # 38
    goldorak
     scrive: 

    Gli unici software che possono avere una qualche utilita’ “consumer” a livello linux sono i giochi.

    Oltre non intravedo possibilita’, perche’ il software open source e’ cresciuto moltissimo in questi anni. Ed ha fagocitato letteralmente tutta quella fascia che era dei programmi shareware e poco a poco quelli “professionali” da qualche decina se non centina di €.
    A quelli che hanno la puzza sotto il naso solo a sentire nominare gimp, scribus, inkscape perche’ fanno sempre il paragone con versioni da 1000 € di adobe suite, beh signori miei questi programmi si mangiano letteralmente tutti i software professionali closed source i cui prezzi vanno da 80 e 300-400 € se non dippiu’.
    Con scribus si ottengono file pdf pre-press ready di qualita’ pari a quelli generati da quark xpress o dell’equivalente adobe. Publisher della Microsoft a confronto di Scribus e’ il niente. Inkscape sebbene sia lento non ha niente da invidiare a adobe illustrator.
    E gimp, e’ un vero capolavoro in termini di funzionalita’.
    In alcuni frangenti superiore anche al tanto acclamato photoshop.
    Non cito poi cinelerra che pur avendo un interfaccia scandalosa e’ un software di video editing non lineare quanto piu’ avanzato ci sia. E non vado neanche nei software di nicchia dove si trova di tutto e dippiu’. Fontmatrix un gestore di prim’ordine dei font, per trovare qualcosa di analogo come funzionalita’ nel mondo windows occorre spendere un buon centone. Font forge poi non ne parliamo, gli unici euqivalenti in termini di funzionalita’ sono fontlab/font studio che costa sui 700 $/€.

    E incredibile pensare che ce’ gente a questo mondo ancora convinta che il valore di un software sia dettato dal prezzo. Non dico che qualche utente professionista abbia bisogno di quelle 2/3 funzionalita’ che ci sono in adobe e non presenti ancora nei software open source. Per loro il prezzo e’ giustificato, ma per tutti gli altri che piratano perche’ vogliono lo “status symbol” beh e’ gente di poco conto. E noi dovremmo accogliere gente del genere nell’ecosistema linux ? Ma roba da pazzi. Che rimangano con le loro convinzioni archaici su windows e/o mac. Dove vengono munti come delle mucche. Senza mai vedere aldila’ del loro naso.

  • # 39
    elevul
     scrive: 

    Che non vedo l’ora. :D
    Anche se l’eventuale successo dipende da come verrà gestita la pirateria, visto che, per ovvi motivi, ben pochi possono permettersi di pagare 3k€ per una Adobe master collection.

  • # 40
    goldorak
     scrive: 

    @pabloski ha scritto :

    >”per fortuna, almeno ubuntu, ha una politica molto meno amatoriale >nei rilasci e punta alla stabilità….in ubuntu gallium non sarà mai >accettato ufficialmente fino a quando non sarà stabile….questa pratica è fondamentale e permette all’utente di percepire il sistema come >stabile….”

    Io su questo punto mi permetto di dissentire nel modo piu’ assoluto. Ubuntu non ha una politica rivolta alla qualita’. Tanto e’ vero che rilascia a scandenza di 6 mesi una nuova distro, ed il LTS e’ uno snapshot di quello che si trova nei repository debian. Non fanno alcun lavoro di integrazione tra le varie componenti del sistema.
    E l’unica cosa notevole da una release all’altra e’ il cambio dell’interfaccia.
    Oh beh che grande cosa, sembra di vedere le varie release di windows.

    La qualita’ come in tutte le cose si paga. E non e’ un caso che le versione commerciali di opensuse, di mandriva siano molto piu’ stabili ed user friendly di quelle che potranno mai essere le varie release di Ubuntu.

    Se poi andiamo oltre l’aspetto commerciale, l’unica distribuzione rivolta veramente alla qualita’ e’ Debian ed e’ un progetto amatoriale. Che fa le release non a scadenza come un progetto commerciale qualsiasi, ma quando la sua comunita’ ritiene che lo standard minimo di stabilita’, qualita’ ed integrazione del sistema siano stati raggiunti.

    Vedi Novell e Redhat hanno distro “instabili” ma poi comunque fanno un lavoro di stabilizzazione per i loro prodotti commerciali. RHEL per red hat e opensuse e Suse linux enteprise edition per la Novell.
    Ubuntu invece prende a piene mani da Debian, e sta tentando di Ubuntizzare quel progetto, di fatto imponendo o cercando di imporre una sincronizzazione nelle release di Debian e Ubuntu.
    Che non dovrebbe mai e poi mai avvenire perche’ Debian e’ un progetto amatoriale rivolto alla qualita’ (we release when we are ready….), Ubuntu invece cerca di $$$$ sulle spalle di Debian.
    E questo non e’ un bene.
    Vuole fare $$$$, si accomodi pure e faccia come Red Hat e Novell.
    Ma allo stato attuale, Ubuntu e quanto di piu’ pericoloso ci sia per linux e per Debian.

  • # 41
    spyrotsk
     scrive: 

    @goldorak:
    Come non poterti quotare :)

    Il problema comunque è che la gente non ha voglia di imparare.
    Vuole fare e basta, senza studiare, ma forse non hanno imparato (appunto) che la pappa pronta, non sempre la si trova e se non la si trova, bisogna imparare a cucinarsela.

    Vorrei vedere queste persone che dicono “linux è difficile” oppure “non c’è il software X”, negli anni 80 con un Vic20 cosa avrebbero detto.

  • # 42
    Fede
     scrive: 

    @ goldorak

    Forse proprio tu valuti i softwares in modo direttamente proporzionale al prezzo di acquisto e anzi in base a quello che hai scritto dubito che sei un professionista della grafica, personalmente io valuto i software per quello che sono, per le funzionalità che offrono ecc. ecc.

    Hai portato come esempio “The Gimp” indubbiamente questo è sicuramente un ottimo software gratuito che offre molto di più di un banalissimo software per mostrare foto, comprimerle o per semplici operazioni di fotoritocco (io personalmente ho una versione di The Gimp installata che aggiorno man mano); però se occorre lavorare seriamente con la grafica, allora saltano subito evidenti le lacune di The Gimp per esempio è una lumaca rispetto a Photoshop come è netta l’inferiorità rispetto a quest’ultimo della resa cromatica, come è decisamente meno stabile ecc. ecc.

    Mi parli di programmi per gestire i fonts, sei sicuro che servono realmente a qualche cosa? forse mi fai pensare che per te aprire e chiudere le finestre del sistema operativo, ridurre ad icona, chiudere ed avviare il sistema, personalizzare le icone ecc. ecc. significa essere un guru dei sitemi operativi.
    Cerca di spulciare tra le guide tecniche del tuo sistema operativo e vedrai che trovi di tutto e di più, addirittura dentro Windows XP Professional, io parlo di questo perché è quello che uso, (e credo anche in Vista e in Windows 7) c’è addirittura la possibilità di creare nuovi font o modificare quelli preesistenti. Questa storia della gestione dei fonts l’ho vista solo nelle postazioni MAC ed è la cosa che più odio perché non funziona mai bene ogni volta che apro un file grafico con dentro dei testi mi devo sempre ricercare i Fonts utilizzati perché non li ricerca mai automaticamente ed ogni volta tocca semple abilitare, abilitare, abilitare, abilitare … con Windows XP Professional senza alcun applicativo per la gestione dei Fonts non ho mai avuto problemi …

    Ad ogni modo non vedo strano il binomio sistema operativo open source e softwares di terze parti non gratuiti, una simile strada potrebbe portare al successo Linux e lo allontanerebbe da quella nicchia di smanettoni che usano Linux solo per il gusto di fare gli splenditi con i loro computer multiboot. Si perché oggi softwares per lavorarci in modo professionale e realizzati ad hoc per linux non ce ne sono (lo stesso problema è per i MAC anche se è più attenuato) , e ripeto non è una questione di soldi ma una questione di qualità, stabilità ed efficienza nei risultati.

    Mi dispiace goldorak dover puntalmente dirti che non sei superficiale ed usi il computer al minimo delle funzionalità, mi domando quando scrivi pensi realmente che non ci siano persone che non conoscono a fondo quello che dici?

  • # 43
    ciarlatano
     scrive: 

    nel 1998 durante uno stage ho usato un software per il tracciamento stradale per *nix.
    dotato di interfaccia grafica, quindi non comprendo perchè oggi si dica l’utilizzo di un software su *nix si più difficile che su un SO microsoft.
    tutto il software per utenti è punta e clicka, si puo’ usare da decenni il mouse anche in modalità testo, se uno non ha più di 90 di quoziente intellettivo puo’ farcela.

    quello che blocca un po’ *nix è la lentezza nella risposta ai comandi, X dovrebbe essere rimosso in fretta e furia, le interfacce grafiche alleggerite ed avere una priorità praticalmente real time.
    lavorare su *nix stanca perchè le finestre a tendina non rispondono instant come su windows.

  • # 44
    Fede
     scrive: 

    @ ciarlatano

    Certo un nickname migliore non lo potevi scegliere no!! comunque contrariamente a quanto fa pensare il tuo nickname hai perfettamente ragione sopratutto per quanto riguarda la lentezza, io fino ad ora gli unci sistemi operativi che ho visto essere decisamente veloci sono i sistemi operativi Microsoft e quelli dei Mac.
    Ma non è solo una questione di velocità le varie implementazioni di Linux peccano soprattutto per la scarsa efficienza dei drivers di periferiche e soprattutto la limitatezza in funzionalità ad esempio nel mio computer ho installayto una scheda audio basata sull’APU Creative X-Fi è una scheda di livello medio, bene dentro linux con i drivers disponibili sarebbe una spesa inutile in quanto tutte le potenzialità dell’APU X-Fi vengono fortemente limitate e ridotte e la qualità dell’audio è decisamente inferiore per non parlare dei vari fruscii scricchiolii ecc. ecc. (pensate che dentro Windows la uso come sistema HiFi multicanale di casa e la qualità è veramente elevata), stessa cosa dicasi per le schede grafiche.

  • # 45
    Emanuele Rampichini (Autore del post)
     scrive: 

    @ciarlatano
    Con gli attuali composite manager (compiz,mutter,kwin) si sfrutta l’accelerazione grafica per il rendering di finestre e controlli. Personalmente con una intel 950gma non provo nessun rallentamento/scatto nell’utilizzo giornaliero. L’unico “problema” si ha con il ridimensionamento delle finestre. In quel caso il lag di X si fa sentire e in questo senso sarebbero opportuni miglioramenti. Nel frattempo ubuntu per far percepire una maggiore “reattività” da una certa versione ha configurato il window manager in modo da posticipare la renderizzazione della finestra alla fine del ridimensionamento .Sono sicuro però che molti non si siano minimamente accorti del trucco definendo la versione che ha introdotto tale modalità migliore perchè più scattante.

    @fede
    per la x-fi purtroppo la situazione è quella che è. I driver sono quelli che passa creative e non ci si può lamentare più di tanto per questo. Personalmente prima di fare un acquisto verifico sempre la compatibilità completa. So che la cosa può essere noiosa ma non ho mai avuto brutti scherzi facendo in questo modo.

    Sul versante grafico c’è da lavorare ovviamente ma tecnologie come KMS e Gallium come già detto in precedenza possono portare ad un miglioramento netto della situazione in futuro. Situazione che comunque non è pessima come a molti piace dipingerla.

    @goldorak

    Vuole fare $$$$, si accomodi pure e faccia come Red Hat e Novell.
    Ma allo stato attuale, Ubuntu e quanto di piu’ pericoloso ci sia per linux e per Debian.

    Ubuntu ha portato molto a tutto l’ambiente in ambito di visibilità. Questo non puoi negarlo. Che poi si possa discutere se sia meglio portare “visibilità” o “codice” è un altro discorso. Secondo me servono comunque tutte e due.

  • # 46
    collione
     scrive: 

    @Fede: è vero in parte

    qnx è molto più veloce di windows e mac

    ma pure android è veloce, oppure archlinux, non vedo tutta questa lentezza, non più di windows almeno

    linux è additato da più parti come più performante e nonostante Xorg è comunque più performante degli avversari

    riguardo i driver non è una situazione diffusa e va migliorando costantemente

    il tuo caso ( la creative ) è il più sfortunato nella storia di linux

    http://ubuntuforums.org/showthread.php?t=440866

    lo scarsissimo supporto di creative a linux è arcinoto nell’ambiente e la qualità dei suoi driver ( poche release in verità ) è sottozero

    gli scricchiolii e tutto il resto non dipende nè da linux nè da alsa nè da pulseaudio, ma proprio da quei subdriver che creative ha creato

    pure windows scricchiolerebbe se avesse driver tanto pessimi

  • # 47
    goldorak
     scrive: 

    @ Fede, capisco che parlare in cognizione di cause ti risulta difficile forse anche impossibile ma fare un piccolo sforzo no ?
    Il problema delle X-fi, che devono fare gli sviluppatori del Kernel se Creative non da le specifiche della APU ? Devono tirarle giu’ dal cielo per via dello spirito santo secondo te ?
    Da che mondo e’ mondo l’hardware si compra in funzione del sistema operativo che si andra’ ad usare. Vuoi usare linux ?
    E allora vedi di comprare hardware che e’ supportato come si deve. Altrimenti venirsi a lamentare dopo e’ da ipocriti.
    Per gli scricchiolii, beh le schede Creative ne soffrono eccome nel mondo Windows. Vogliamo poi parlare fino a poco tempo fa usare una schede Creative con un sistema con 8 GB di ram (xp 64, o vista 64 o 7 64 bits) ti dava problemi a non finire. Ma no queste cose e’ meglio passarle sotto silenzio perche’ il mondo proprietario e’ un paradiso dico bene ? Paga e si felice di essere “incu…..to”.
    Almeno in linux con l’hardware supportato non potra’ mai esserci l’azienda che dice “e ora caro mio ti tolgo il supporto al tuo hardware perche’ non piu’ conveniente”.
    E questo te lo dico da “ex-cliente” creative in quanto possiedo una x-fi platinum, che sotto linux deve fare a meno della scheda frontale. Ma questo io gia’ lo sapevo all’atto di acquisto. E cio’ nonostante l’ho comprata conoscendo pienamente i limiti della X-fi sotto linux. Anche cosi’ rimane un ottima scheda audio seppur menomata dalle sue varie caratteristiche proprietarie (estensioni eax, cristalyser, etc…)

    Schede grafiche ? Parliamo di Nvidia che per 2 anni e’ stata incapacitata a fornire un driver, dico uno che fosse decente per Vista e che non facesse crashare il sistema ? E questa la Nvidia della qualita’ ? Almeno ATI nel mondo opensource supporta lo sforzo dello sviluppo di driver open source. Nvidia no. Che ci preferisce le massime performance a patto di ogni tanto dover reinstallare il driver per via di qualche aggiornamento al kernel, e chi invece predilige i driver open source. Questa e’ liberta’ (che a te non te ne possa fregare un tubo e’ irrilevante), non il diktat che ce’ sui sistemi proprietari. Ma tanto cosa parlo a fare con te che non capisci neanche cosa sia il mondo del software libre.
    E di quali vantaggi porta all’umanita’.

    Infine, quello che hai detto all’intervento #42 e’ la sagra dei luoghi comuni. E non merita neanche una risposta. Fatti una cultura in merito e poi parlane.
    Altrimenti il ciarlatano sembri proprio tu.

  • # 48
    JPage89
     scrive: 

    @The Solutor
    è vero, non c’è un solo modo
    ma il più intuitivo è via gui, per un utente normale
    io che so qualcosina di bash, posso fare le cose via console
    un utente comune la console NON la deve aprire!
    quello che dici tu è un workaround, non una soluzione. Sono due cose profondamente diverse
    @Minatore
    1)Io li trovo estremamente utili, per ricordare che devo comprimere qualcosa in un archivio (gli do un nome significativo)
    Ma utile o meno, DEVO poterlo fare se ho voglia. E se sono utente comune, devo farlo SENZA CONSOLE
    2)la tua seconda affermazione mi fa dubitare profondamente del fatto che tu possa avere un minimo di conoscenza di Linux. E’ stranoto che NON ha bisogno di deframmentazione.
    3)ti cito:
    “Una cosa complicata da fare con certe distro linux x esempio è la copia ricorsiva di file non noti ( che da dos è facile)
    Es: copy C:\pippo\???cd.* C:\pluto\*.* ”
    dai ancora adito alla mia affermazione al punto 2, basta un semplice
    cp -a /dir/* /destinazione/
    mi sembra ancor più complesso del DOS sinceramente

  • # 49
    JPage89
     scrive: 

    scusa, volevo dire
    “mi sembra ancor più complesso il DOS sinceramente”

  • # 50
    goldorak
     scrive: 

    Emanuele Rampichini ha scritto :”

    Ubuntu ha portato molto a tutto l’ambiente in ambito di visibilità. Questo non puoi negarlo. Che poi si possa discutere se sia meglio portare “visibilità” o “codice” è un altro discorso. Secondo me servono comunque tutte e due.”

    E vero, ed infatti io questo non lo nego. Quello che critico e’ invece il business model, anzi l’assenza di business model della Canonical.
    Facesse quello che fan Novell e Mandriva, cioe’ impacchettare una propria distribuzione, metterci il tocco di personalizzazione grafica, a livello di drivers, di codecs, di documentazione etc…. E vendesse il pacchetto con supporto post vendita non ci vedrei niente di male.
    Quando io incominciai a muovermi in linux, non sapevo un accidenti e mi serviva una soluzione gia’ pronta, mi indirizzai verso quello che allora era la Suse professional e la comprai. 80 € ben spesi.
    E se ce gente che compra Suse, o Mandriva non vedo perche’ non debbe esserci gente pronta a comprare un prodotto impacchettato da Canonical. Sempre pero’ che la qualita’ sia al rendez-vous. Altrimenti e’ soltanto una presa in giro.

  • # 51
    The Solutor
     scrive: 

    @Jpage

    Capiamoci il mio discorso non era tutto attaccato

    Parte A se devo comprimere qualcosa faccio tasto destro e la comprimo, su linux o su windows

    Parte B per me il workaround è (sotto windows) usare la gui quando potrei farlo comodamente via shell testuale, su linux è la via piu comoda per un sacco di cose.

    E per quello che mi riguarda linux deve essere linux.

    Se vuoi manggiare ostriche mangi ostriche, non ci metti il ketchup sopra per farle sembrare hamburgers.

    Se uono vuole usare linux, che si impari due nozioni in croce, senza aspettare che il prossimo suo si sbatta per farglielo sembrare windows.

    Siamo onesti le motivazioni tecniche per far preferire linux a windows sono quasi esaurite. Windows non è più win95, windows funziona.

    Rimangono le motivazioni etiche (sulle quali non mi dilungo), ma vorrei capire che ha di etico usarsi ubuntu che fa tutto in automatico e che è nato solo perche un miliardario fricchettone ha deciso di farlo nascere.

    Se uno vuole una roba che funzioni come windows, la via più logica è usare windows, se uno apprezza la diversità, che la apprezzi sul serio, senza pretendere che la diversità sia identica a qualcos’altro.

  • # 52
    Sabbia
     scrive: 

    Premetto che solitamente uso linux, ma come ho già detto altre volte, l’unica cosa che mi lega al mondo M$, sono dei programmi che non hanno, quando vuoi lavorare seriamente, corrispettivo.
    Inkscape, l’ho usato ed ho fatto cose interessanti, ma mi satura un solo core di una macchinetta 4core, non sfrutta gli 8giga di ram e ancora peggio, è lentissimo, sia a 32 bit che a 64 e questo mi porta a lasciarlo perdere.
    Gimp… carino, ma forse sarò abituato ai prodotti adobe, forse la differenza ci sarà davvero, non riesco ad avere nè la velocità operativa, nè la facilità di uso e non sto pensando al mouse, ma a tastiera e lavagna grafica.
    la gestione di file di dimensioni considerevoli con centinaia di livelli, nemmeno ne parlo perchè, ignoranza mia, non so neppure come gestiscono le maschere e come lavorarci, senza impazzirci.

  • # 53
    Flavio Tordini
     scrive: 

    Anche io sto guardando con interesse all’evoluzione del Software Center. In particolare per la sostenibilità economica di alcuni miei piccoli progetti. Poter accettare donazioni direttamente dal Software Center sarebbe un grande passo.

  • # 54
    Andrea R
     scrive: 

    Nessuno ha fatto notare, mi pare, il legame tra diffusione di Mac ed il porting di software commerciale su Linux.
    Di per sè linux ha poca fetta di utenti per attrarre sforzi di porting. E’ la quota di Mac che non si può più ignorare.

    Il porting da una piattaforma a due è costoso. Da due a tre, salvo incapacità degli ingegneri, è molto più economico.
    Esempio: STEAM.

    Io spero che qualche prodotto commerciale arrivi anche su linux. Non lo userò, ma può essere utile alla sua diffusione. Sperò anche che si tratti solo di grandi software destinati a target specifici, non che diventi la norma.
    Purtroppo la gran parte degli utenti non ha chiari i motivi per cui va usato linux: la libertà come utente e l’onestà dell’ecosistema.
    Se la gente cominciasse ad usare linux perchè è gratis e funziona discretamente, non si comporterà di certo troppo bene verso la comunità e ciò potrebbe anche danneggiare il software libero.
    In un mondo dove incominciano a girare troppi soldi su linux abbiamo sempre più bisogno di Stallman e della FSF.
    Io invito i supporter del software libero ad associarsi alla FSF.

    Per il resto mi trovo d’accordo con collione e in gran parte con goldorak. Solo che secondo me Ubuntu è un’ottima cosa per linux. Ha mostrato come si gestisce una distro (launchpad, wiki, forum, UDS, etc) e come si investe sul desktop. Sta facendo finalmente un singolo punto di riferimento per il desktop linux che fa diminuire il numero di distro e aumentando la visibilità di linux al pubblico.
    Il business model di Canonical è molto più onesto di quello di red hat con le licenze a processore. Se vuoi
    supporto, paghi, se no il prodotto è comunque gratis.
    Almeno per ora Canonical ha speso più di quanto ha guadagnato e ciò è indubbiamente buono.

  • # 55
    Giulio85
     scrive: 

    Quello che molti non vedono è che la diffusione di Linux (in ambito domestico) non è strettamente collegata a coloro che lo usano, quanto all’ecosistema che c’è intorno.

    Io posso usare un sistema alternativo se ritrovo:

    a) le stesse applicazioni
    b) applicazioni alternative che però abbiano grosso modo le stesse caratteristiche, sia in termini di funzionalità che di prestazioni.

    L’esempio che ha fatto The Solutor riguardo le ostriche è perfettamente estendibile al software in generale.

    Se io ho bisogno del programma A potrei non accontentarmi di un clone mal riuscito che tenta a mozzichi e bocconi di emulare il software originale.

    C’è una parte di sviluppatori che anziché provare a inventarsi qualcosa di nuovo semplicemente prende un prodotto di successo e più o meno lo clona, sperando di clonarne anche il successo.

    Un industria cinese del software.

    Siccome credo che con la filosofia da sola non si va da nessuna parte, se si vuole fare della concorrenza seria forse bisognerebbe cominciare a pensare a qualcosa di più concreto.

    E francamente ho seri dubbi che la community Linux voglia fare concorrenza a Microsoft nel suo settore principe, probabilmente pensa che non sia necessario o semplicemente non vogliono farlo per non snaturare la filosofia che c’è dietro al progetto.

    Fatto sta che le percentuali sono sempre le stesse da anni.

  • # 56
    Emanuele Rampichini (Autore del post)
     scrive: 

    @Flavio Tordini
    Ciao Flavio; prima di tutto ti faccio i complimenti per i tuoi 2 fantastici progetti minitube e minitunes. Uso costantemente il primo e ho provato ultimamente il secondo. La tua idea di facilitare la possibilità di donazioni non sarebbe affatto male. Mi viene però in mente come ci si comporterebbe in caso di progetti che non hanno grossa visibilità come può essere una libreria.

  • # 57
    goldorak
     scrive: 

    @ Giulio 85 : e quello che molti non capiscono e’ che i progetti open source possono “vivere” senza avere una grande comunita’ di utenti. Cosa che e’ impossibile da fare nel mondo proprietario del software. Ecco perche’ ad esempio Corel simise di fare la sua versione di CorelDraw per Macintosh e si concentro’ solo su Windows.
    O perche’ non esista Autocad per Macintosh, etc…
    Quindi fare della “popolarita'” l’indice del successo del software open source e di linux e’ senza senso. Significa non avere capito niente di come funziona tutto l’eco-sistema open source.

    Linux ad esempio con l’1% (vogliamo essere generosi va) del mercato e’ una realta’ viva e vegeta. Apple con uno share del 1% o Microsoft con lo share del 1% del mercato sarebbero fallite.
    Quindi e’ assurdo confrontare le percentuali nello stesso modo.

    Chi se ne frega se linux ha l’1%, o lo 0.5% del desktop ? L’importante e’ che sia presente e fornisca a chi vuole una scelta. Cosi’ come l’eco-sistema del software open source.

    Linux e’ linux, non ha alcun bisogno di far concorrenza a Microsoft (anche se nel mondo server Linux bastona eccome Microsoft). A lei ci pensa Apple almeno nel settore consumer. Sono due realta’ commerciale che se le danno di santa ragione.
    E l’utente ha la scelta tra il diktat della Microsoft e la gabbia dorata della Apple.
    Se poi non vogliono ne’ l’una ne’ l’altra hanno una altra scelta, che pero’ e’ difficile. E non per questo occorre snaturare linux e il mondo open source.

  • # 58
    Nicola
     scrive: 

    Io ho sempre sperato in una CONVIVENZA. Niente guerre “è meglio quello, è meglio questo”. Ad ognuno il suo. Auspicare che “linux” prenda il posto di windows, a che servirebbe? chi avrebbe poi il “comando”?

  • # 59
    collione
     scrive: 

    @Nicola:

    comando? ma perchè al mondo devono per forza esserci tiranni e sudditi?

    l’ecosistema linux è senza dittatori, eppure funziona ed evolve ad una velocità che i software proprietari possono solo sognare

    non si può avere un mondo informatico democratico, dove sono i consorzi tipo Khronos, Open Handset Alliance, ecc… a decidere?

  • # 60
    Giulio85
     scrive: 

    @collione: pensi che il comando sia solo tirannia e sudditanza?

    L’approccio gerarchico, usato anche nei progetti open, è fatto per portare ordine all’interno di un sistema, ad esempio quando si devono prendere delle decisioni in merito a delle questioni.

    L’approccio democratico non si scontra necessariamente con l’approccio gerarchico, si ascoltano tutti, ma la decisione la prende uno, il che per altro individualizza e mette in evidenza la responsabilità di quella decisione.

    Ci sono anche progetti in cui le decisioni vengono prese insieme, ma in genere questo può essere fatto solo ed esclusivamente se si è in pochi, e ti posso assicurare che spesso è difficile anche in quel caso.

    In ogni caso dev’essere possibile individuare la responsabilità di chi si assume le scelte.

    Detto ciò, goldorak: le percentuali hanno importanza eccome quando devo decidere se concentrare gli sforzi per sviluppare programmi commerciali per Linux, che poi è l’argomento di questo articolo.

    Non a caso ho parlato di \originali\ e di \cloni\.

  • # 61
    Daniele
     scrive: 

    Articolo molto minimale che non ha preso in considerazione alcuni progetti closed ben peggiori delle controparti open che hanno fallito, tipo Nero Burning o PowerDVD, poi ci sono i tentativi di fornire i sorgenti come Xara che alla fine non hanno avuto sviluppatori interessati, magari per la scarsa collaborazione della casa madre o per la bassa qualità del prodotto in se. La convivenza non è una questione in discussione, tutti usiamo Skype e paghiamo i suoi servizi non gratuiti, non vedo la differenza con futuri progetti closed a pagamento tipo Steam o con i tanti progetti nel mondo aziendale che non conosciamo, tipo le rendering farm, oppure i sistemi embedeed pilotati da un kernel free e sw proprietari.
    Molti commenti sono la fiera delle ovvietà e delle banalità, si va dal tipo che conosce l’ignoranza dell’umanità a quello che crede che se l’utente guarda per primo windows lo chiama mamma e lo seguirà per la vita. Poi c’è quello che dice che KDE4 è per ingegneri eccetera.
    L’utente usa ciò che trova, 2 milioni di persone hanno l’Ipad senza photoshop, windows e scemenze varie. Non so quanti milioni usano uno smartphone NON windows, devono essere la versione intelligente dell’umanità. Alcuni milioni sono passati al cloud e a google apps, sarà gente superiore che non sente il bisogno di un corso per poter abbandonare MSOffice. Eccetera eccetera…

  • # 62
    The Solutor
     scrive: 

    Molti commenti sono la fiera delle ovvietà e delle banalità, si va dal tipo che conosce l’ignoranza dell’umanità a quello che crede che se l’utente guarda per primo windows lo chiama mamma e lo seguirà per la vita. Poi c’è quello che dice che KDE4 è per ingegneri eccetera.

    Danie’ hai mai sentito parlare di ironia in vita tua ?

    Se “quello” che parla di KDE per ingeneri lo fa riferendosi al fatto che buona parte degli utenti si rifiuta di usarlo per il semplice fatto di essere configurabile.

    Comunque se l’ironia è opzionale, la buona educazione non lo è affatto.

    Se hai da criticare una affermazione altrui la citi e la critichi, e ti esponi alle controdeduzioni del caso, magari evitando la supponenza che stai usando specie quando qualcuno uno o più tra i tuoi interlocutori hanno (evidentemente) una esperienza nel settore che tu ti sogni.

  • # 63
    goldorak
     scrive: 

    Giulio 85 ha scritto :

    \Detto ciò, goldorak: le percentuali hanno importanza eccome quando devo decidere se concentrare gli sforzi per sviluppare programmi commerciali per Linux, che poi è l’argomento di questo articolo.

    Non a caso ho parlato di originali e di cloni.\

    Che vantaggio avrebbe Adobe dal vendere Photoshop su linux, che non ha gia’ nel mercato PC (Apple/Microsoft) ? O dal vendere chesso’ Illustrator o la Master Collection ?
    Cioe’ francamente, chi compra tali software che costano fino a svariati migliaia di € cosa vuoi che gliene importi di spendere 100 € per una copia oem di windows, o di spendere 1000 € per un portatile mac ? Pensi che passerebbero a linux e per quale motivo ?
    Per spendere quello che spenderebbero su Os/Windows ed inpiu’ ritrovarsi che un sistema che per sua natura cozza con il software closed source, a meno di non usare distro che mantengono invariate le api/abi e fanno un lavoro immane di backporting come fa la Red Hat. Ed infatti nel caso della Red Hat paghi eccome il SO se vuoi il supporto, qualcosa come svariate migliaia di $/€ all’anno per singola postazione.
    Ci sono software da migliaia di € che hanno la loro versione per linux/unix (matlab, catia, pro engineer, etc…) e non vedo schiere di utenti passare a linux/unix per questo.
    Le industrie cinematografiche usano moltissimi software professionali sotto linux/unix. Pensa usano anche cinepaint un fork di gimp che ha il supporto nativo a 32 bit di colore PER CANALE.

    Quindi di cosa stiamo parlando in fondo ? Linux come piattaforma professionale non ha niente da invidiare ne’ a Os X ne’ tantomeno a Microsoft. E ridurre l’importanza del software alle solite quattro applicazione (photoshop, illustrator, etc…), il 90% di quali e’ piratato sotto windows beh mi pare alquanto riduttivo no per capire l’importanza o meno di linux.

  • # 64
    Emanuele Rampichini (Autore del post)
     scrive: 

    @Daniele

    Articolo molto minimale che non ha preso in considerazione alcuni progetti closed ben peggiori delle controparti open che hanno fallito, tipo Nero Burning o PowerDVD

    Eppure mi sembra di aver citato la “Serrata concorrenza di alternative libere”. Alternative che in ambito GNU/Linux sono più radicate e conosciute rispetto ai sistemi commerciali.

    La convivenza non è una questione in discussione, tutti usiamo Skype e paghiamo i suoi servizi non gratuiti, non vedo la differenza con futuri progetti closed a pagamento tipo Steam o con i tanti progetti nel mondo aziendale che non conosciamo, tipo le rendering farm, oppure i sistemi embedeed pilotati da un kernel free e sw proprietari.

    Ma l’obbiettivo dell’articolo era proprio far capire questa cosa. Volevo evidenziare che anche chi ama e sceglie il software libero (per qualsiasi motivo) dovrebbe accogliere positivamente il fatto che realtà commerciali stiano iniziando a “vedere che esiste anche il desktop GNU/Linux”.

  • # 65
    Giulio85
     scrive: 

    Beh Nero fino alla versione 4-5 era il top… poi hanno voluto trasformare un programma per masterizzare CD in un bloatware per il “multimedia”.

    Se rilasciassero una ri-edizione free di quello che era Nero4 sono sicuro che molti lo userebbero.

    Ad oggi i programmi per masterizzare decenti si contano sulle dita delle mani, e alcuni sono fin troppo potenti.

    Comunque al di là di questo, se in molti non usano sistemi *nix che tra i suoi cavalli di battaglia ha il suo essere free (in tutte le sue accezioni) forse un motivo ci sarà.

    Se tu compri qualcosa all’80% è perché hai visto la pubblicità e nella migliore delle ipotesi letto una recensione al riguardo.

    D’altro canto Apple e Microsoft in America si scannano a forza di spot più o meno denigratori contro l’avversario.

    Non mi risulta che società come Canonical facciano lo stesso, contano sul passaparola (ed è questa la filosofia open source).

    Il problema è che il passaparola non prescinde dalla bontà di ciò che hai sviluppato. La pubblicità tradizionale ti mette la pulce nell’orecchio indipendentemente dall’idea che altre persone possono avere di quel prodotto.

    In soldoni il passaparola funziona solo se ciò che hai sviluppato mi offre un vantaggio tangibile tanto da volerlo comunicare al “mondo”, ed è ciò che è accaduto con Firefox.

    Quindi è vero che l’utente usa ciò che trova, ma se ciò che trova è l’unica cosa di cui conosce l’esistenza, forse il problema è un altro: la mancanza di una strategia di marketing.

  • # 66
    Emanuele Rampichini (Autore del post)
     scrive: 

    In soldoni il passaparola funziona solo se ciò che hai sviluppato mi offre un vantaggio tangibile tanto da volerlo comunicare al “mondo”, ed è ciò che è accaduto con Firefox.

    Mozilla ha investito e continua ad investire cifre sostanziose per la promozione di firefox. Ti assicuro che non si tratta solo di passaparola.

    Quindi è vero che l’utente usa ciò che trova, ma se ciò che trova è l’unica cosa di cui conosce l’esistenza, forse il problema è un altro: la mancanza di una strategia di marketing.

    Che poi è quello che sostanzialmente è ubuntu. Debian + marketing. ;-)

  • # 67
    Giulio85
     scrive: 

    @Emanuele: forse adesso che la concorrenza s’è fatta più agguerrita, ma agli inizi non mi risulta.

    Poi non so in America, ma di sicuro qua non s’è visto granché, ogni tanto per qualche release a questa parte un articoletto su qualche quotidiano.

    Di sicuro non stiamo ai livelli di Microsoft e Apple, le cui pubblicità americane fanno eco anche qui da noi…

  • # 68
    goldorak
     scrive: 

    Emanuale Rampichini ha scritto : “Che poi è quello che sostanzialmente è ubuntu. Debian + marketing. ;-)”

    Consentimi di essere un tantino pungente :

    Ubuntu=Debian+Marketing-Stability. ;-)

    Ad ogni modo, credo che ormai il dibattito si sia esaurito.

    Linux puo’ convivere con software closed source come dimostrano l’elenco sterminato di applicazioni PROFESSIONALI da svariti migliaia di € che girano senza alcun problema sulla piattaforma. Con tutti i costi annessi e connessi ovviamente.

    Diverso e’ la questione se il software closed source diciamo “alla portata” di tutti puo’ convivere con Linux. E qui la risposta secondo me e’ no. No perche’ le distro linux (anche quelle dichiaratamente LTS) non offrono un api/abi stabile. E nessuno vorrebbe comprare Photoshop per poi vedersi la licenza revocata a causa di un upgrade del kernel etc…
    No perche’ il 90% delle funzionalita’ che si trovano nei programmi a pagamento closed source, sono gia’ presenti nelle versioni open source. Tempo fa cera una discussione sul shareware, ebbene io ai tempi dissi che il shareware andava scomparendo a favore di soluzioni open source. E successo su windows, e poco a poco sta succedendo anche su Os X (dove l’espansione e’ stata frenata dal non avere per molto tempo un supporto nativo di questa piattaforma).

    L’unica tipologia di software closed source che puo’ avere un certo successo in linux sono i giochi. Ma anche qui le esperienze passate sono negative. Io devo essere uno dei quattro gatti a questo mondo ad avere RailRoad Tycoon, Alpha Centauri e Civilization Call to Pwer originali nativi per linux. Ne avete visti altri cosi’ nell’ultimo decennio ? Io no.

  • # 69
    Fede
     scrive: 

    @ goldorak per commento #47

    infatti quelllo che dici non fa altro che confermare quello che io sostengo e cioè che si sbandiera tanto il vantaggio che offre Linux (qualunque sia il pacchetto che si considera) ma nonostante tutto non è supportato in modo efficiente da drivers di periferica, non supporta applicativi professionali, mi hai fatto una critica inutile perché io non utilizzo Linux a me non serve a nulla anche se ammetto ogni tanto lo installo, diciamo almeno due volte l’anno tanto per valutarne i progressi.
    Poi mi parli dei drivers di NVidia le cui GPU sono più efficienti con le librerie grafiche di Microsoft le DirectX che con la tecnologia OpenGL.
    Io personalmente utilizzo prodotti ATI (ora AMD) di fascia alta perché sono più adatti per la grafica in generale, infatti con Autocad e 3DStudio sono decisamente più performanti delle GPU NVidia le quali sono più adatte per i videogiochi, si è vero ci sono le schede della serie Quadro (e nel lato ATI/AMD la serie Fire) ma quanto costano? occorre spendere dai mille euro in su.
    E comunque ribadisco che ha senso utilizzare Linux quando saranno finalmente disponibili drivers di periferica efficienti e completi nelle funzionalità e quando ci saranno softwares professionali da poterli utilizzare come si utilizzano nella piattaforma Windows/x86.
    Pure il tuo discorso sulle schede audio non ha proprio senso, io quando compro dell’hardware lo compro in funzione di quello che ci devo fare e pretendo che le caratteristichemesse a disposzione siano utilizzabili, si è vero non è colpa di Linux ma è colpa drei produttori Hardware ma alla fine arriviamo sempre alla stessa conclusione ne vale la pena utilizzare Linux, allo stato attuale la risposta è NO.
    Ad ogni mdo resta sempre in piedi cio che ho scritto nel precedente mio commento ossia che da come scrivi si capisce benissimo che non lavori in determinati settori, quali la grafica digitale, il multimedia, la progettazione d’impianti elettrici e di sicurezza, la progettazione di impianti meccanici in questi settori programmini open source per Linux non servono a nulla. Poi va be ci sono determinati software professionali che esistono solo per piattaforme windows/X86 ad esempio WinDoc per la progettazione di cabine elettriche di distribuzione, reti di quadri elettrici (stiamo parlando di armadi da almeno 100 interuttori automatici e non di stupidi quadretti da apprtamento) ecc.. ecc. come softwares per l’illuminotecnica generale e quella di sicurezza, software per impianti antincendio o software per la progettazione meccanica o software per la progettazione di circuiti elettronici.
    Ripeto se non conosci software molto specifici e professionali non dare per scontato che Linux è la manna scesa dal cielo, per l’uso professionale che ne faccio del computer a me Linux non serve a nulla.
    Con questo non voglio dire che non ci potrebbe essere la possibilità in futuro che la situazione cambi, se fosse così ben venga ma allo stato attuale le dicerie pro Linux sono solo dicerie da smanettoni e da gente che non suppone neanche l’esistenza di certi software che molte persone utilizzano professionalmente e per lavoro.
    Stai parlando con un elettronico/informatico, grafico, musicista, matematico e molto altro ancora … non stai parlando con uno sprovveduto …

  • # 70
    The Solutor
     scrive: 

    goldorack

    Resta il fatto, che ai più sfugge, che linux (e quello che gli ruota attorno) il grosso di quello che doveva fare lo ha già fatto.

    Ed i benefici sono gia arrivati per buona parte dell’utenza, spingendo sull’acceleratore della concorrenza.

    Abbiamo centinaia di sw che magari girano su windows, ma che lo fanno con la filosofia che sta dietro a linux, e che lo fanno a volte meglio di sw commerciali, cito virtualdub, che mi pare rappresentativo.

    Anche windows non sarebbe quello che è oggi se non avesse avuto una concorrenza che facesse paura.

    Senza linux “a piede libero” non avremmo mai avuto un miracolo come XP.

    Non parliamo poi di office il cui prezzo è oggi praticamente decimato rispetto a quanto avveniva 10 anni fa, e senza openoffice non sarebbe mai successo.

    Non parliamo poi dell’ambito server che non è oggetto del presente dibattito.

    Morale: quando arrivò omnitel ci furono benefici istantanei per gli utenti Tim, che letteralmente dal giorno alla notte si ritrovarono ad avere tariffe e call center migliori, ed il tutto mentre gli utenti omnitel si arrabbattavano con un roaming boicottatto ed una rete inseistente.

    Qui è accaduta la stessa identica cosa, i maggiori benefici li hanno ricevuti gli utenti di altre piattaforme, magari senza avere mai visto un linux in funzione. E la controprova arriva da quei pochi settori dove tutto ciò non è arrivato, ed autocad direi che ne è l’esempio perfetto.

  • # 71
    Nicola
     scrive: 

    @collione

    per fortuna che “comando” l’avevo messo tra virgolette. Giulio85 ha colto perfettamente quello a cui alludevo con “comando”. A scanso di equivoci, io non sono contro l’open source. Per questo auspico una convivenza civile, senza ogni volta scadere nelle solite diatribe aride che non portano ad un bel nulla, ma sono solo dannose per l’intero movimento.

  • # 72
    Nicola
     scrive: 

    e concordo totalmente sull’ultimo post di The Solutor. Anche se sono principalmente utente Windows per svariati motivi, mi auguro che sistemi operativi diversi continuino ad essere sviluppati, sia per una questione di concorrenza, ma principalmente perchè sono un appasionato di software :-)

  • # 73
    Daniele
     scrive: 

    @emanuele
    Forse non ho colto il senso dell’articolo, certe volte sembra che vogliate dire qualcosa di semplice ma scegliete strade intricate.

    @the solutor
    Non avevo capito il sarcasmo su KDE, non puoi negare il livello bassissimo di certi commenti che alla fine rende difficile distinguerli tra il “sono convinto di ciò che dico” e “sono sarcastico”, per quanto riguarda i miei sogni spero che non verteranno mai sull’informatica, che poi tu sia più esperto, più geek, più informatico, più meglio per te. Se l’offesa deriva da “quello” sostituiscilo pure con “colui” dovrebbe essere meno maleducato.

  • # 74
    Simon71
     scrive: 

    Signori, lungi da me scatenare flames, anche perché negli ultimi 20 di informatica sono passato da windows a Linux a Mac, avendo (credo) maturato un’esperienza multipiattaforma: tradotto, significa che a me che sia Osx, Seven, Ubuntu/Debian non mi interessa…Per quello che faccio io con un computer…
    Il punto è quando sei là fuori, nel mondo, a tentare di guadagnarti la pagnotta….

    a \loro\, non frega assolutamente niente di Linux, pochissimi sanno cos’è e solo in ambiente programmazione/gestione server….

    Per tutto il resto ormai il duopolio Apple/Microsoft (che si spartiscono i vari campi professionali) è una realtà…
    A nessuno interessa l’alternativa tux a questo o a quell’altro…Loro esigono che tu sia un mago in Photoshop, perché quello è lo standard, ed è uno standard non fatto solo del programma fine a se stesso, ma di estensioni proprietarie, plugin senza i quali non si lavora SERIAMENTE.

    Stesso discorso nell’audio- video: Protools, Logic, Avid, maya, sono gli STANDARD che Apple e Microsoft hanno fato diventare tali….A nessuno interessa l’alternativa Linux…

    Nei curricula, nei colloqui sono richiesti i menzionati software (ma potrei pure citare autocad, Sap, Office e tanti altri)….

    Ed è per quello che Apple e Microsoft deposte le armi già molti lustri fa hanno pensato di realizzare software multipiattaforma…E le software house storiche come Adobe o Digidesign hanno fatto altrettanto…Perché anche chi usa Mac può darsi che debba NECESSARIAMENTE usare Office della microsoft, così come chi usa Windows debba NECESSARIAMENTE usare Illustrator o Protools….programmi nati in origine per il Macintosh…

    Linux NON sarà mai competitivo nei mille mila settori (che vanno dalla ricerca scientfica al multimediale) fino a quando i summenzionati software non saranno scritti per quella piattaforma.

    Perché come dico io, un OS, soprattutto oggi (linux, windows e OSx alla fine sono allineati come stabilità, esperienza d’uso, reattività, sicurezza) è solo una mera piattaforma dove ci gira del Software…..
    Le guerre di religione servono solo ai fanboy che con il computer ci vanno giusto su facebook, o fanno quattro fesserie…Un professionista se ne sbatte dell’interfaccia grafica, degli sbarluccicamenti, del fatto che su uno ci gira iLife, sull’altro ci gira autocad o Foobar2000…

    Un professionista con un comuter lavora, e non lavora con l’os (tranne i casi che citavo prima), ma con uno stramaledettissimo software!

    Ben venga (cosa che auspico) finalmente software commerciale su Linux….apple perderebbe quote di mercato, sarebbe costretta ad abbassare i prezzi, Microsoft sarebbe spinta a fare sempre meglio Windows…

    soprattutto OSX e Linux che sono così simili…Sviluppare anche per il pinguino sarebbe manna dal cielo per chi vuole un OS unix based come OSX, senza accollarsi la spesa di un Mac, ed avendo tutta la pletora di Hardware PC da scegliere..

    Speriamo che dinosauri come Stallmann si levino di torno in fretta perché come dico sempre io il più grande nemico di Linux è Linux stesso!

    Saluti

  • # 75
    pabloski
     scrive: 

    @Simon71: non hai tutti i torti, però la realtà è un pò più articolata

    dal fatto che parli di photoshop all’inizio, suppongo tu lavori nel settore grafico e ovviamente vedi solo windows e mac

    se parliamo di server, ricerca scientifica, calcolo numerico, linux è molto diffuso, arrivando a detenere quote del 95% nel settore hpc

    il settore embedded è un altro settore in cui linux è diventato lo standard de-facto, affiancato nelle applicazioni mission critical da vxworks, qnx, ecc…

    il punto è che linux esiste e non facciamoci impressionare dalle statistiche di netapplications, quelle sono prese dai contatori di visite delle pagine web e vanno considerate tutt’altro che esaustive

    linux non è presente solo sui desktop e nel settore dell’office automation

    ovviamente qui si inserisce il tuo discorso e cioè, in quei settori sono i software applicativi a dettare la scelta della piattaforma

    ms lo sa bene e per decenni ha cercato di intralciare la concorrenza a colpi di lockin, formati proprietari, accordi poco leciti con clienti e fornitori, sfruttando il monopolio di windows in quei settori per veicolare i suoi software e a turno i suoi formati dati chiusi ( opera denunciò ms proprio per via del legame ie/windows/activex che coinvolge i pc windows e i server windows e programmi come sharepoint )

    però non si può negare che l’unico modo per convincere adobe e soci a fare il porting dei propri software, è aumentare lo share di linux….e come si fa? semplicemente si parte da dove è partita ms, ovvero dai pc per il “cazzeggio”

    ms quando nacque vendeva un sistema giocattolo per computer giocattolo, dove giravano multiplan e altri programmini per mantenere un piccolo diario elettronica di ricette di cucina, oppure fare i conti del bilancio familiare

    oggi il cazzeggio si chiama facebook, youtube, megavideo, rapidshare…..linux deve puntare all’utente casuale, quello che perde tempo col pc, quello che guarda video, ascolta musica ma non svolge nessuna attività professionale con quello strumento

    ovviamente in quest’ottica, gli accordi con gli OEM sono fondamentali, perchè per quanto linux possa soddisfare i bisogni di utilizzo del 90% dell’utenza, se non è preinstallato non si diffonderà mai….non è un caso che ms nel ’99-2000 fece “pressioni” sugli OEM affinchè non preinstallassero Beos in dual boot con windows…chiaramente se la gente avesse provato windows 98 accanto a Beos, sarebbe passsata a Beos che all’epoca aveva performance inimmaginabili per la concorrenza, era veloce, reattivo e fornire un’API di una comodità unica

    proprio a proposito dell’API faccio notare che una delle variabili importantissime per un OS sono quelli che Ballmer chiama “developers, developers, developers”….linux in questo senso scoraggia gli sviluppatori anche se negli ultimi anni, qt sta attirando molti nuovi sviluppatori e favorendo lo sviluppo multipiattaforma

  • # 76
    shodan
     scrive: 

    @ Emanuele Rampichini

    Il fatto che l’interfaccia grafica sia accelerata via hardware è vero solo in parte: sia le GTK che Cairo usano la CPU e vanno a renderizzare all’interno di una pixmap. Questa pixmap viene poi utilizzata come una texture da applicare su una struttura poligonale. E’ solo quest’ultimo passaggio ad essere accelerato via hardware; tutto il lavoro di rendering delle finestre viene effettuato dalla CPU.

    Il vantaggio dell’approccio tramite texture è, attualmente, sostanzialmente uno: avere le finestre renderizzate in uno spazio off screen permette a X di non dover mandare degli eventi di ridisegno ogni qual volta alla finestra corrente viene sovrapposto qualche altro elemento grafico. In pratica è un’implementazione avanzata del backingstore.

    Tutto il discorso si basa su un’analisi che ho condotto ormai oltre un anno fa; se nel mentre le cose sono cambiate (ma non penso…) ovviamente il discorso va rivisto.

    Ciao. :)

  • # 77
    The Solutor
     scrive: 

    @daniele

    Nessun problema, basta chiarirsi.

    Per il resto non mi importa nulla di pubblicizzare la mia esperienza, ne le mie capacità, sono nella fortunata posizione di non sapere cosa fare prima, piuttosto che cercare lavoro come purtroppo accade a tanti di questi tempi.

    Però in una discussione tecnica la mia esperienza la uso, e faccio commenti derivanti dalla stessa, altrimenti non vedo il senso di discutere.

    In 28 anni di uso di computer in 13 di linux, ed in 16 di contatto professionale con gli utenti qualche idea (che ritengo abbastanza precisa) sull’approccio dell’utenza “normale” a queste problematiche.

    E la triste realtà è che questo approccio non semplicemente non c’è.

    E gli sforzi divulgativi dei singoli diventano ben poca cosa quando devono combattere con una scuola da terzo mondo, con una informazione tv completamente sottoposta ad interessi di parte, e con una informazione generalista online, ormai completamente comprata da soggetti alla apple.

    Dove il messaggio che si sta facendo passare è quello di “ignoranza=valore”.

    Se linux avrà una certa affermazione lo farà tramite distribuzioni con un business e con soggetti potenti alle spalle, ma a quel punto avrà perso la sua anima nonchè buona parte dei motivi validi per usarlo.

  • # 78
    Daniele
     scrive: 

    @The solutor
    Sono d’accordo con ciò che dici al 100%, ma parlare di terzo mondo è un insulto per quelli del terzo mondo, se hai seguito gli ultimi eventi paesi come la Nigeria han fatto passi avanti tanto da meritarsi una convention apposita, cosa che non ho mai visto in Italia. Vogliamo parlare del Brasile? Della Repubblica Ceca? Della Polonia? E l’India? Sono tutti paesi che dal punto di vista della “cultura” informatica sono già molto avanti a noi. Qui in Italia si parla ancora di Photoshop e Autocad da avere a CASA, applicativi che non possono mancare sul proprio PC. La patente informatica, una c….a che se paragonata alle auto significherebbe prendi la patente per guidare una sola marca di automobili! MS andrebbe BANDITO dalle scuole, dove l’insegnamento deve essere a livelli di astrazione e non a livello di “corso per usare il pc”. Sono andato OT, scusate lo sfogo.

  • # 79
    Simon71
     scrive: 

    @pabloski

    Il tuo ragionamento può anche essere condivisibile, e l’ho specificato bene.
    Paradossalmente parlando oggi Linux te lo ritrovi nel tuo GPS e nel “frullatore”, ma non nei PC.

    Fino a quando enterò in un’azienda, qualsiasi azienda, fino a quando milioni e milioni di impiegati (anche un fonico o un grafico sono impiegati alla fine) vedrai un tappeto sterminato di PC Windows e/o Mac le chiacchiere stanno a zero…

    Iconografia dall’azienda media, che può essere un’assicurazione, una banca o un’azienda che fa copertoni per automobili….

    Entri e ti vedi centinaia di PC con il loro bel loghetto Windows… Centiania di terminali che fanno girare i gestionali, Office ed altro….

    Poi vedi uno o due omini vesititi in modo strano, molto dimesso, con principi evidenti di “sclero” e/o depressione acuta….

    Quelli gestiscono il “server” aziendale, Linux….

    No no non sclerano per Linux, ma perché sono poco integrati col resto dell’azienda, vivono in un mondo nerd tutto loro….

    Le centinaia di dipendenti invece, che vanno dal CEO all’ultimo dei colletti bianchi usciti da lì e tornati a casa che fanno?

    Tornano ad accendere il loro bel Windows….
    Perché quello conoscono, per loro esiste solo quello…

    Linux? Forse lo avranno visto (rigorosamente qualche distro ancora testuale) quando per sbaglio cercando la Toilette sono finiti nel reparto dove risiede il server aziendale….

    Viste quelle righette di comando su schermo ancora nero/azzurrino/verde avranno pensato a qualche vecchio film di fantascienza degli anni ’70…Il tecnico poi , dopo averli cacciati fuori ha fatto il resto…

    Dopo la sosta alla Toilette, tornati alla loro postazione non si ricordano più di quegli strani marchingegni visti poc’anzi….

    Questa è la realtà.

    Quando capiterò da un meccanico, un benzinaio, un panettiere, un call center, una compagnia assicurativa, un negozio di scarpe, una ditta di sapone, un’agenzia pubblicitaria, uno studio di registrazione, un ospedale, uno studio di architettura, un’università, un liceo….(potrei continuare all’infinito) e vedrò dei PC con su Ubuntu/Devian/Red Hat/Fedora/Mandriva/Suse/Gentoo allora si potrà dire che Linux ha fatto il salto della quaglia…

    Fino ad allora il duopolio Apple/Ms la farà ancora da padrone…

  • # 80
    The Solutor
     scrive: 

    ma parlare di terzo mondo è un insulto per quelli del terzo mondo

    Beh, il mio era ovviamente un modo di dire, ma chiaramente hai ragione.

  • # 81
    j
     scrive: 

    Le centinaia di dipendenti invece, che vanno dal CEO all’ultimo dei colletti bianchi usciti da lì e tornati a casa che fanno?

    Tornano ad accendere il loro bel Windows….
    Perché quello conoscono, per loro esiste solo quello…

    poi ci sono coloro che, abituati a windows, non possono comunque evitare di venire almeno a conoscenza di quest’ altro sistema operativo (vuoi per l’ amico smanettone, vuoi per tutti e siti e forum dove ormai è impossibile non trovare qualcuno che lo tiri fuori, magari a sproposito);
    decidono di provarlo;
    finiscono per conto di trovarsi davanti a un sistema dall’ esperienza d’ uso a tratti più farraginosa ( a causa di una scarsa consistenza interna ed esterna ) a fronte di possibilità d’ utilizzo che nella migliore delle ipotesi sono equivalenti, ma più realisticamente inferiori, e in ogni caso mai superiori (perchè non esiste alcuna applicazione seria, che non esista anche su altri sistemi)
    e tornano a ciò che usavano prima …

  • # 82
    pabloski
     scrive: 

    @Simon71: il tuo ragionamento è fallato in certi punti

    “Fino a quando enterò in un’azienda, qualsiasi azienda, fino a quando milioni e milioni di impiegati (anche un fonico o un grafico sono impiegati alla fine) vedrai un tappeto sterminato di PC Windows e/o Mac le chiacchiere stanno a zero…”

    dai tempo al tempo….windows è figlio del dos che esiste da 30 anni e si è diffuso pari pari alla diffusione dei pc ibm

    nel contempo però non puoi non tener conto che Peugeot-Citroen ha migrato mezzo milioni di pc a linux, la municipalità di Monaco ha migrato 43000 pc a linux e ci sono altri casi del genere…uno vicino a noi, Bologna!

    “Linux? Forse lo avranno visto (rigorosamente qualche distro ancora testuale) quando per sbaglio cercando la Toilette sono finiti nel reparto dove risiede il server aziendale….

    Viste quelle righette di comando su schermo ancora nero/azzurrino/verde avranno pensato a qualche vecchio film di fantascienza degli anni ‘70…Il tecnico poi , dopo averli cacciati fuori ha fatto il resto…”

    anche in questo caso non sono d’accordo….perchè distro testuali? ti faccio l’esempio dell’istituto nazionale di geofisica, dove ubuntu è usato su tutti i pc degli impiegati e ubuntu server lo usano per fare le previsioni dei terremoti

    se mi parli di schermo nero/azzurrino/verde, è chiaro che parliamo di due linux molti diversi

    io di mestiere sviluppo software per linux embedded e nemmeno noi ci sogniamo di usare una distribuzione testuale con vi….personalmente uso kde4.4 con eclipse e komodo ide

    “Quando capiterò da un meccanico, un benzinaio, un panettiere, un call center, una compagnia assicurativa, un negozio di scarpe, una ditta di sapone, un’agenzia pubblicitaria, uno studio di registrazione, un ospedale, uno studio di architettura, un’università, un liceo….(potrei continuare all’infinito) e vedrò dei PC con su Ubuntu/Devian/Red Hat/Fedora/Mandriva/Suse/Gentoo allora si potrà dire che Linux ha fatto il salto della quaglia…”

    se parliamo di percentuali allora hai ragione, ma non puoi dire che linux non c’è nelle università nelle aziende, negli studi di registrazione

    ad esempio http://news.softpedia.com/news/Hollywood-Loves-Linux-45571.shtml

    non ha il livello di diffusione di windows ma certamente non è nè testuale nè nero/azzurrino nè inesistente e lo dimostra il numero crescente di società che sta portando il proprio software su linux

    linux ad oggi possiede programmi professionali di animazione, manipolazione 3d, fotomontaggio, ecc… molti mancano all’appello ma altri ci sono

    ti faccio un esempio….autodesk non ha portato autocad su linux ma maya si

    non avremo autocad o inventor, ma abbiamo varicad e altri

    è chiaro che linux non ha lo share di windows in quei settori, ma è pur vero che linux è venuto molto dopo di windows…tuttavia guardando al tasso di crescita, per il futuro le aspettative sono rosee

    Telecom e Enel sono altri due casi di passaggio a linux….Telecom addirittura lo ficca dappertutto, oltre ai client anche sui suoi server, nei suoi videotelefoni e nei router adsl

    per quanto linux non sia stradiffuso, resta il fatto che la situazione è ben lontana da come l’hai dipinta

  • # 83
    j
     scrive: 

    nel contempo però non puoi non tener conto che Peugeot-Citroen ha migrato mezzo milioni di pc a linux

    http://www.infoworld.com/t/applications/peugeot-citroën-revs-20000-suse-linux-desktops-372
    i pc sono ventimila, non mezzo milione – numero che peraltro si capisce essere impossibile già andando a buon senso… anche ipotizzando un pc a dipendente vorrebbe dire mezzo milione di persone, ma quale azienda automobilistica conta su un organico del genere?

    la municipalità di Monaco ha migrato 43000 pc a linux

    no.
    la migrazione di monaco riguarda un parco macchine complessivo di quindicimila pc, ovvero un terzo, di cui allo scorso giugno solo 3000 sono state effettivamente convertite
    http://www.muenchen.de/Rathaus/dir/limux/publikationen/418948/2010_VPA.html
    ( e questo dopo aver ripetuto più volte la fase pilota, per poter dire ad ogni resoconto di averla completata da poco)
    diciamo che quello di monaco, con i suoi tempi, costi, i problemi , e la superficialità e mancanza di pragmatismo che vi è stata, non è esattamente un brillante esempio di migrazione riuscita…

    linux ad oggi possiede programmi professionali di animazione, manipolazione 3d, fotomontaggio, ecc…

    le applicazioni esistenti su linux , che è una versione di unix, non sono applicazioni nate ieri, ma applicazioni con alle spalle una lunga storia iniziata su workstation facenti girare versioni proprietarie di unix (Irix e HPUX per dirne due) – e che quindi era praticamente naturale continuare a sviluppare su linux (quantomeno per versioni stabili e certificate di linux), quando l’ utenza di irix e hpux si è spostata in massa su questo

    ma anche applicazioni con una lunga storia su NT, che a metà degli anni 90 era visto da più parti come il futuro e con cui non poche società si preparavano a sostituire, o affiancare le proprie versioni di unix ( anche contando sul fatto che il kernel di NT fosse, di suo, multipiattaforma, funzionando in effetti su MIPS, Alpha, PA, PPC oltre che x86)
    cosa che ha portato a convertire alle api win32 applicazioni (solitamente basate su motif) di alto livello ( a partire da un certo SoftImage…) prima appannaggio delle workstation risc / unix proprietarie, a tutto beneficio della piattaforma NT più diffusa, ovvero il pc

    quindi, quello che è su unix rimane su unix e si estende a windows, che ciò che è su windows si estenda a linux implica andare contro una tendenza che ha anche radici storiche se vogliamo…

    ti faccio un esempio….autodesk non ha portato autocad su linux ma maya si

    maya che guardacaso è stato il primo software che ho avuto modo di toccare con mano su una workstation SGI (trattavasi di una O2 ed era il 1996) :-D

    è chiaro che linux non ha lo share di windows in quei settori, ma è pur vero che linux è venuto molto dopo di windows…

    linux è venuto nel 1991, cioè poco, non molto, dopo windows 3.1

    tuttavia guardando al tasso di crescita, per il futuro le aspettative sono rosee

    veramente la diffusione di linux sul desktop era maggiore nel periodo tra il 98 e il 2001, che sono in molti a ritenere il suo periodo d’ oro – Mac OSX era di là da venire e la versione consumer di windows era oggettivamente meno stabile, l’ utenza era effettivamente motivata a usare un OS più spartano ma più robusto

    Telecom e Enel sono altri due casi di passaggio a linux….Telecom addirittura lo ficca dappertutto, oltre ai client anche sui suoi server, nei suoi videotelefoni e nei router adsl

    telecom, è difficile
    più plausibile che lo faccia chi i telefoni e i router li produce, per dire dlink/zyxel/pirelli/ecc e samsung/lg

    ma vedi, un router è un’ appliance, non un pc nè un “computer” in senso lato – anche usando linux, la funzione di router è esaurita con pochissimo sw, il kernel, iptables e poco altro, magari httpd per la console di configurazione – soprattutto quello che del router l’ utente vede, si limita a quest’ ultima, egli non ha a che fare con una console e i relativi comandi, per quanto lo riguarda il router potrebbe non essere nemmeno un sistema linux nè altra variante di unix

    così per un navigatore gps o un cellulare, in effetti costituiti dall’ “applicazione che svolge le funzioni di presentare le mappe / calcolare i percorsi/ gestire le rubrica / telefonare / ecc” e un kernel su cui questa gira (a parte gli ultimi smartphone in cui il sw di bordo non è monolitico), impiegato per spostare lo sviluppo del firmware a un livello più alto

    il fatto che zyxel scelga – per ragioni tipicamente economiche – linux e non un altro kernel, non inficia in alcun modo lo stato, la facilità d’ uso o meno e l’ attrattività per l’ utente finale, di linux in ambito desktop, che è una “bestia” del tutto diversa

  • # 84
    Simon71
     scrive: 

    Tendo ad essere d’accordo con “J”.

    Se però Linux vuole contrastare Windows e nel multimediale Mac deve CREARE degli STANDARD. Come hanno fatto le 2 aziende.
    Quindi, o sdogana i suoi programmi “urbi et orbi” oppure si adegua e prega che qualcuno li traduca per lui.
    Non sono un programmatore quindi le mie competenze sono limitate, ma nel caso di Mac credo che parecchi programmi scritti per OSX non sarebbe difficilissimo portarli su Linux…

    Saluti

  • # 85
    Marco
     scrive: 

    Sarò ripetitivo, ma l’aver conquistato l’1% del mercato desktop (e in crescita continua) per linux è già un successo strepitoso.
    Il software proprietario arriverà se e quando ci sarà un mercato profittevole per esso.

    @J
    “linux è venuto nel 1991, cioè poco, non molto, dopo windows 3.1″

    E’ lo sviluppo di linux che è iniziato nel 1991.

  • # 86
    the solutor
     scrive: 

    Marco

    Con tutto il rispetto che ho per Linux e l’open source, linux ha iniziato ad essere utilizzabile a livello desktop dai tempi dell’uscita del KDE 1 (gnome a quei tempi era una vera catastrofe) vale a dire 98/99 all’incirca.

    Sono passati 11 anni di continui miglioramente su kernel, UI e SW applicativo.

    E se in 11 anni si è riuscito a raccattare a malapena l’ 1/2 % in ambito desktop si può parlare di tutto tranne che di successo strepitoso.

    Il successo c’è ma è indiretto, intorno al 2000 linux ha iniziato a fare paura, e questo ha portato a passare da carciofi come WinME o Win2000 a un OS funzionante e stabile come XP.

    Non sarebbe mai successo se linux non ci fosse stato, garantito.

    Ma se vogliamo parlare di successi bisogna guardare altrove, Android è un successo, IOS è un successo, Win7 è un successo, lo stesso linux in ambito server ed in ambito appliances è un successo, linux in ambito desktop no.

  • # 87
    zanardi84
     scrive: 

    Il principale ostacolo alla diffusione di Linux in ambito domestico è chiaramente l’assenza delle DirectX e con esse l’ottimizzazione dei driver, in particolare per quanto riguarda i videogame.
    Ubuntu 10.04 è formidabile, ma non sono installabili quei giochi che su Win fanno fortuna. O meglio, il modo ci sarebbe, wine, ma è un sistema troppo laborioso e non è detto che funzioni.
    Un appunto andrebbe fatto anche per quanto riguarda il sistema sonoro che con Pulse sta dando qualche problema non desiderato, specialmente con i chip integrati che sono scarsamente configurabili.

    Per tutto il resto, in casa e nei piccoli uffici e nelle scuole si può usare tranquillamente il pinguino.

  • # 88
    markit
     scrive: 

    Nessuno che parli della caratteristica fondamentale, unica ed impareggiabile di GNU/Linux: è software LIBERO, che rispetta la libertà dell’utente di usarlo per qualunque scopo, modificarlo, distribuirlo e distribuirne le modifiche.
    Il fatto di non essere in balia delle decisioni ECONOMICAMENTE vantaggiose di qualche software house d’oltre oceano, che ti IMPONGONO una nuova versione quando fa comodo a loro.
    Il partecipare ad un ecosistema, il software libero, che è patrimonio dell’umanità intera, e non conoscenza segreta di qualche ditta.
    Il sentirsi sicuri che il software che si sta usando è lì per servire te, e non per tenerti legato, spiarti, limitarti a quello che è stato deciso a priori, da altri, tu possa fare.
    A me solo l’accendere il pc e sapere che tutto quello che sto per usare è software Libero mette addosso una tale sensazione di gioia che poco mi importa delle directx, di photoshop, di quel che volete.
    E’ come mangiare cibo sano e naturale. Vi manca il cheesburger? Ritenete che il cibo sano e naturale si diffonderebbe meglio se fosse mischiato ai prodotti McDonalds? Io no di certo!

  • # 89
    saidone
     scrive: 

    @the solutor
    “E se in 11 anni si è riuscito a raccattare a malapena l’ 1/2 % in ambito desktop si può parlare di tutto tranne che di successo strepitoso.”

    E’ la terza piattaforma in ambito desktop, dietro a due società con un market cap di oltre 200 miliardi di dollari. La prima, e di gran lunga, nel mondo FLOSS.
    Se si guarda la storia, OS/2, AmigaOS, BeOS, Solaris, TRU64, FreeBSD, ecc. ecc. ci si rende conto di quanto lo sviluppo e la diffusione di un OS non sia tecnocratico nè meritocratico.

    Per cui ribadisco la mia idea: un prodotto installato sull’1% dei desktop di tutto il mondo è un prodotto di successo.

  • # 90
    j
     scrive: 

    Per cui ribadisco la mia idea: un prodotto installato sull’1% dei desktop di tutto il mondo è un prodotto di successo.

    se l’ 1% è quello di cui ci si accontenta o a cui si puntava, allora si può in effetti parlare di successo ;-)

    ma mi pareva di capire che le intenzioni fossero altre, quando il finnico parlava di conquistare il mondo e per canonical il bug numero uno è la quota dominante di microsoft…

    E’ la terza piattaforma in ambito desktop, dietro a due società con un market cap di oltre 200 miliardi di dollari. La prima, e di gran lunga, nel mondo FLOSS.

    certo, visto che sul desktop in pratica non esiste nient’ altro…
    BSD e solaris sono sistemi operativi unix tanto quanto se non di più ( bsd è in effetti discendente diretto dello unix AT&T, non un clone) di linux, oltre ad avere alle spalle un modello di sviluppo molto più sano (e coeso) – se impacchettarli con un DE, peraltro esistente (e sviluppato prevalentemente) su linux, bastasse a porli sullo stesso piano di windows od anche solo di ubuntu, non è da escludere che sarebbero concorrenti molto più temibili e supportati dall’ industria del sw, di una piattaforma frammentata come linux , se ciò non accade è perchè BSD e solaris sono principalmente sistemi server
    discorso pressochè analogo per sistemi come QNX, in questo caso embedded / realtime
    altri sistemi effettivamente nati in funzione del desktop o non sono riusciti ad uscire dalla sfera “hobbystica” in cui sono nati, come AtheOS/syllable, o come SkyOS il cui sviluppo è praticamente cessato dopo che il suo autore ha intrapreso altri progetti (dopo aver fatto per anni pagare l’ accesso alle release beta) o sono praticamente morti e la comunità (di nicchia) ad essi affezionata tenta di crearvi interesse attorno con un clone (ancora in stato di work in progress) poco più che equivalente a quella dell’ OS originale e supportante le stesse applicazioni che giravano ai tempi su quest’ ultimo (quindi un’ esperienza d’ uso forse poco appetibile a chi si aspetta sistema e applicazioni adeguate al 2010, anche se richiedenti un pc più prestante di quelli allo stato dell’ arte nel 2000) … ma in tutti i casi si tratta di nicchie, di scarsa rilevanza (se non al di sotto della soglie di errore statistico) per quanto concerne il mercato …

  • # 91
    Marco
     scrive: 

    @J
    “quando il finnico parlava di conquistare il mondo e per canonical il bug numero uno è la quota dominante di microsoft…”

    Si tratta di battute. Sai, quelle frasi che fanno sorridere…

    En passant non ho mai sentito una timeline del tipo “entro il 2012 vogliamo il 30% del mercato desktop”, per cui non esiste nessun obiettivo prefissato e mancato”

    “sistemi come QNX, in questo caso embedded / realtime”

    QNX ha/ha avuto mire desktop, vedi Phonon ad esempio (o quando distribuiva i mitici floppy).

    “non è da escludere che sarebbero concorrenti molto più temibili e supportati dall’ industria del sw”

    Distribuzioni *BSD orientate al desktop ce ne sono, e ben fatte (vedi l’italiana Freesbie, DesktopBSD o PC-BSD). Non mi sembra che siano tanto supportate dall’industria.

  • # 92
    IRQ
     scrive: 

    @markit

    Sì, certo, la liberté, l’egalité e la fraternité. E l’aria pura e la freschezza e le multinazionali cattive e il pomodoro dell’orto di mia nonna che così buoni non li compri mai.

    Poi inizi a lavorare e scopri che il mondo non è così semplice come appare a 15 anni davanti alla Ubuntu col cubo che gira.

  • # 93
    7studio
     scrive: 

    non e solo che mancano i software commerciale mirati ai professionisti e che tutto cio che monti su linux funziona male faccio un esempio io faccio video editing principalmente per eventi
    come i matrimoni, ho in studio un ws con ubuntu installato “artistx”
    non posso acquisire il mio lavoro e quando sono riuscito a settarmelo come Dio comanda ad un tratto si chiude l’applicativo
    oppure e a schermo verde in pratica ho sprecato 6 anni della mia vita aspettando che linux e kdelive e cinelerra potessero soddisfare
    la voglia di cinelerra ma non e stato cosi dopo ennesima installazione ho provato ad installare edius per mezzo di wine ma anche edius a fatto i capricci alla fine sono dovuto ritornare a windows anche se straodiato.
    linux benchè è da me amato ma per adesso rimane del cassetto.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.