domenica 27 dicembre 2009

HRD, drive ibrido hard disk-SSD

Gli hard disk sono costituiti da uno o più piatti di alluminio o vetro rivestiti da materiale ferromagnetico. Ad ogni piatto sono associate due testine di lettura/scrittura.

Gli SSD invece sono costituiti da chip di memoria NAND flash raggruppati in celle. L’accesso ad una cella di memoria avviene specificando una riga e una colonna.

Gli HRD (Hard Rectangular Drive) rappresentano il punto di unione tra hard disk e SSD. Come gli hard disk, gli HRD sono formati da piatti magnetici e testine, ma ogni testina viene controllata attraverso un segnale di riga e di colonna, come avviene negli SSD.

I ricercatori inglesi di DataSlide hanno inserito un layer di materiale magnetico e due layer di testine di lettura/scrittura all’interno di un case rettangolare da 3,5 pollici, in cui è presente anche un lubrificante.

A differenza degli hard disk tradizionali, nell’HRD si muove solo il layer magnetico, ma non con moto rotatorio. Il movimento infatti avviene in direzione orizzontale mediante l’utilizzo di un attuatore piezoelettrico.

HRD

Gli strati di lettura/scrittura sono costituiti da una griglia di milioni di testine realizzate con lo stesso processo litografico adoperato per i chip in silicio. Ogni testina viene controllata inviando un segnale lungo l’appropriata riga e colonna della griglia.

Le testine quindi restano ferme, mentre il layer magnetico oscilla orizzontalmente creando i settori in cui verrà letta o scritta l’informazione. Anche se è possibile effettuare un numero di letture/scritture in parallelo pari al numero delle testine, nell’attuale versione del drive solo 64 testine possono leggere e scrivere contemporaneamente.

Questa tecnologia permetterà di ottenere 160.000 operazioni di input/output al secondo (in lettura e scrittura casuale) e un transfer rate di 500 MB/sec, con un consumo totale di soli 4 W, ovvero un terzo del consumo di un hard disk da 15000 rpm e circa il doppio del consumo di un SSD.

Non è ancora possibile indicare una data di commercializzazione, ma DataSlide ha intenzione di concedere la tecnologia in licenza ai produttori per permetterne il lancio sul mercato.

mercoledì 16 dicembre 2009

Accedere ad una rete Wi-Fi altrui

Una delle domande che mi viene posta con maggiore frequenza ultimamente è relativa ai rischi legati all'utilizzo della connessione wireless altrui. Oggigiorno infatti, mantenere reti Wi-Fi prive dei criteri minimi di sicurezza (es: utilizzo protocollo WEP, password deboli o addirittura inesistenti) è una pratica ancora ampiamente diffusa.
In un precedente articolo, abbiamo discusso a proposito dei potenziali rischi giuridici a cui si espone chi subisce un'intrusione sulla propria rete Wi-Fi e delle contromisure minime da adottare per evitare che ciò accada.
Oggi cercherò di affrontare il problema duale, ovvero a quali rischi di natura informatica e giuridica incorre chi si introduce abusivamente in una rete wireless altrui.
Rischi giuridici
Il reato che sembrerebbe configurarsi in questa fattispecie è sicuramente l'accesso abusivo ad un sistema informatico o telematico (art. 615 ter c.p.).
C'è da dire che l'accesso abusivo prevede che il sistema oggetto della violazione sia “protetto da misure di sicurezza” e che, ovviamente, tali protezioni siano state in qualche modo eluse.
Non essendo richiesta nessuna adeguatezza in termini di misure di sicurezza, la semplice presenza di una protezione, anche se facilmente aggirabile (es: uso di password debole), costituisce un'esplicita ed inequivocabile manifestazione di volontà finalizzata a riservare l'accesso alle sole persone autorizzate a farlo.
Nessun reato sembrerebbe configurarsi nei casi di sistemi Wi-Fi open (privi di password). Il condizionale è d'obbligo per almeno 2 motivi:
  1. la materia è relativamente giovane per il nostro ordinamento giuridico, troppo spesso le sentenze hanno dato luogo a pareri contrastanti.
  2. l'accesso potrebbe essere considerato un fatto accessorio ed innescare delle responsabilità giuridiche a cascata (es: intercettazione abusiva di comunicazioni, frode informatica, danneggiamento di sistemi informatici, etc.)
Rischi informatici
Se nell'esporre i rischi precedentemente menzionati ho fatto ampio uso del condizionale, in questa sezione cercherò di essere incisivo ed immediato: chi utilizza un accesso Wi-Fi altrui si espone a rischi di sicurezza fuori di ogni misura.
Infatti, dietro l'access point a cui il vostro pc si collega potrebbe nascondersi una persona malintenzionata, con delle conoscenze informatiche leggermente al di sopra della media, in grado di effettuare quello che io chiamo wardriving passivo (il wardriving consiste nell'intercettare reti Wi-Fi).
Per comprenderne il meccanismo è bene sapere che accedere ad una rete Wi-Fi altrui equivale ad inserire un cavo in un punto rete altrui. Questa azione colloca inevitabilmente il proprio terminale all'interno della stessa rete privata dell'attaccante ed in quello che viene comunemente chiamato dominio di collisione o segmento di rete.
Il fatto di trovarsi nella stessa rete privata garantisce all'attaccante un elevato livello di trust da parte dei sistemi di protezione locali della vittima (es: firewall, anti-virus, etc.). Ogni servizio presente sul pc target, compreso il contenuto dell'hard-disk, sono, nella maggior parte dei casi, immediatamente messi ad uso e consumo dell'attaccante.
E fin qui, presi i dovuti accorgimenti, innalzato il livello di protezione, tutto sarebbe relativamente arginabile. La condivisione dello stesso segmento fisico di rete ha effetti a dir poco devastanti: nessuna misura di sicurezza è in grado di limitare il livello di esposizione (di fatto non vi è nessuna intrusione in atto che i sistemi possano rilevare).
In questo scenario l'unico limite di cui dispone l'attaccante è la fantasia: egli sarà in grado di sniffare (leggere) e modificare tutto il traffico di rete in transito da e verso la vittima. Questo lo metterà in condizione di impossessarsi di sessioni http[s] e di password, leggere numeri di carta di credito, messaggi di posta elettronica e di messaggistica istantanea, rubare i codici di accesso dell'home banking, etc.
Morale della favola: prima di appropriarsi della banda altrui, dopo averne attentamente valutato il rischio giuridico, pensate sempre che dall'altra parte dell'access point possa esserci qualcuno più furbo e più malintenzionato di voi

Seagate si arrende: arrivano i primi dischi flash

Seagate, da sempre scettica sul mercato dei dischi basati su SDD, si arrende e lancia il primo disco basato su memorie allo stato solido. Il mercato di riferimento è quello dei server e delle imprese. Per ora.

Anche Seagate si arrende al mercato dei dischi Flash. Dopo avere combattuto fieramente il trend del mercato che punta verso il settore dei supporti di memorizzazione allo stato solido, la società americana ha annunciato oggi il lancio del suo primo disco SSD.

Seagate Pulsar si rivolge all'ambito delle imprese, in particolare al settore dei server blade e a tutte le applicazioni server. Per questo il Pulsar usa una tecnologia SLC (single level cell) con capacità fino a 200 GB e fattore di forma da 2,5 pollici. L'interfaccia SATA, accanto alla tecnologia flash, porta ad un performance di picco a 30000 IOPS in lettura e a 25000 IOPS in scrittura con 240MB/s in lettura sequenziale e 200 MB/S in scrittura; la mancanza di parti in movimento consente un AFR (anualized failure rate) dello 0,44%, il che permette di estendere la garanzia a 5 anni.

Il lancio del Pulsar viene accompagnato da dichiarazioni Seagate inusualmente positive nei confronti della tecnologia SDD. La società che in passato aveva definito in maniera molto scettica le prospettive di crescita del settore, ora si dice, per iniziativa di Dave Mosley, Seagate executive vice president, Sales, Marketing, and Product Line Management, "ottimistica sulle opportunità offerte dal mercato SDD nelle imprese. Il nostro obbiettivo - continua Mosley - è quello di fornire ai clienti il dispositivo di archiviazione di cui hanno bisogno, indipendentemente dalle tecnologie usate". Seagate cita esplicitamente nel suo comunicato una ricerca di Gartner secondo cui le unità SDD nel settore delle imprese raddoppieranno nel corso del 2010 raggiungendo un fatturato di 1 miliardo di dollari.

Anche se per ora il target è dichiaratamente ristretto al mercato dei server e delle macchine ad alte prestazioni che caratterizzano le imprese, ci sono pochi dubbi sul fatto che quando i prezzi e l'avanzamento della tecnologia renderanno gli SDD competitivi con i dischi basati su piatto magnetico, anche Seagate sarà della partita.

Seagate ha iniziato a distribuire i dischi Pulsar ad alcuni clienti selezionati già nel settembre 2009.

RAM scraping, ovvero come rubare dati bancari dalla RAM di un computer

Nelle ultime ore, Verizon Business, blasonata azienda americana specializzata nella sicurezza nelle comunicazioni e nei sistemi di pagamento, ha pubblicato il suo rapporto annuale (il Data Breach Investigations Report) sui principali pericoli informatici per la sicurezza dei dati personali.

Il rapporto di quest'anno, tuttavia, oltre a offrire una panoramica sulle 15 principali minacce alla sicurezza nei pagamenti online e offline, rileverebbe per la segnalazione di un nuovo trend informatico finalizzato all'acquisizione illecita di dati di carte di credito e carte Bancomat.

RAM scraping, questo il nome della novità, starebbe destando non poche perplessità e preoccupazione tra chi si occupa di pagamenti e moneta elettronica, proprio per la modalità di cattura dei dati personali di un utente.

Secondo Verizon Business, infatti, quando il titolare di un bancomat o di una carta di credito utilizza lo strumento di pagamento per fare acquisti (ad es. in un esercizio commerciale), tutti i dati memorizzati nella carta (numero, nome, cognome, PIN ecc.) verrebbero nella maggior parte dei casi raccolti e decodificati dal POS e trasmessi in chiaro a un apposito server che li gestisce in remoto.
A ricezione avvenuta i dati resterebbero ancora in chiaro nella memoria del computer di destinazione, per poi essere nuovamenre ricodificati e passare sull'hard disk del server.
Proprio la breve permanenza in memoria sarebbe il tallone d'Achille sfruttato da un RAM scraper (il malintenzionato che si avvale di questa tecnica) che, tramite un apposito applicativo, scansionerebbe rapidamente la RAM del computer di destinazione in cerca dei dati della carta.

Non è certamente il primo caso di acquisizione illecita di dati dalla memoria di un computer e molti applicativi malevoli presenti in rete si avvalgono di questa tecnica, ma il RAM scraping seppure comporti necessariamente che il server collegato ai POS o al terminale che raccoglie i dati creditizi venga prima infettato dal malintenzionato, rende nei fatti totalmente impotenti i titolari delle carte in questione.

Sebbene Verizon Business abbia illustrato come riconoscere su di un computer la presenza di un malware finalizzato al RAM scraping, non è mancato chi ha mosso alcune critiche alla scoperta. In primis perchè, come anticipato, esistono già applicativi malevoli che fanno ciò e la vera novità è legata al tipo di dati acquisiti dalla RAM di un computer, in secundis perchè Verizon Business avrebbe dichiarato la difficoltà per un comune antivirus di fronteggiare il fenomeno. Affermazione preoccupante ma non chiaramente motivata dall'azienda.

martedì 10 novembre 2009

Gmail e NetBook

Già avevo trattato l'argomento di usare Gmail per scrivere documenti, ma ci avete pensato?
Avete pensato a caricare su Gmail le vostre foto, o la vostra musica... Poter vedere le proprie foto su qualsiasi computer si voglia è interessante, gestire i propri documenti tramite Gmail, diventa molto utile non abbiamo piu' bisogno di un computer mega immenso con spazi di memoria inverosimili, basta lo spazio che troviamo su Gmail, non è infinito OK, ma con poco si arriva ad avere il proprio disco rigido di qualche decina di GB virtuale, ma utilizzabile.

Ecco cosa comporta usare un sistema online, non dover perdere i propri dati averli tutti sicuri sul web (sempre che il servizio resti disponibile) basta una copia di backup su card o penna USB, ma i dati li teniam al sicuro anche online... Ecco che si scopre come usare i NETBOOK, quei piccoli aggeggi che assomigliano a dei Notebook piccolini, senza lettore DVD, con un piccolo disco fisso da pochi GB, ma il lettore di card e la porta USB per la stampante e la penna USB.
Cosa serve di piu', un portatile compatto con un sacco di autonomia, la disponibilità di spazio web, e una memoria benchè limitata, piu' che sufficiente per gestire i propri backup.
Questo è il futuro dei computer, dove tutto sarà online, ma già ci siamo, il futuro è qui

sabato 7 novembre 2009

Skype per Linux

Ma forse qualcosa si muove veso l'opensource?
Anche Skype sta pensando ai suoi clienti (leggi l'articolo), così vedremo l'accattivante grafica skype su windows anche su Linux

sabato 31 ottobre 2009

Nuovo Ubuntu 9.10

E' uscito, si'!!!!!
La nuova release di Ubuntu 9.10 è pronta per essere scaricata, io sto provando per ora Kubuntu 9.10, per via di vecchi amori per KDE, e devo dire che la grafica è davvero accattivante, le trasparenze, i gadget, anche se pero' mantiene quella sua pesantezza che mi ha fatto prendere la decisione di passare a Gnome, quindi ad Ubuntu.
Pesantezza a parte se un utente windows volesse provare GNU/Linux credo che Kubuntu diventi un bel biglietto da visita... scaricare e masterizzare il CD costa solo il prezzo del supporto. Poi si puo' provare senza installare nulla, e già si capisce che si ha davanti qualcosa di particolare.
Ho notato il miglioramento della gestione delle reti wifi, che con la 9.04 veniva gestita ancora con una certa difficoltà, Ora invece installa subito (se possibile) i driver della scheda wifi e rende disponibili le varie reti, basta segliere la propria e immettere la password.
Per ora e' tutto, le prove continuano, faro' di certo delle aggiunte.

giovedì 17 settembre 2009

Virus Antivirus Truffa, Windows Protector plus


Un programma molto chiaccherato ultimamente, Windows Protector Plus, da alcuni chiamato la quint'essenza degli antivirus, UNA BUFALA pericolosissima, è chiamare i virus a casa propria, un programma che diventa impossibile da disinstallare, se non con un tool creato a posta, Su questo sito spiegano come fare per disattivarlo e rimuoverlo, sia manualmente sia con un altro programma che dovrebbe eliminarlo definitivamente, il sito purtroppo è in inglese, ma con il traduttore di google si riesce a leggere molto bene.
Il Programma quando installato diventa un vero e proprio trojan ben visibile, magari all'inizio si comporta anche come un antivirus anti maleware di ogni sorta... poi pero' scade il periodo di prova, trova miriadi di virus, ma per toglierli bisogna pagare fino a 89 $, che pero' non si sa se poi li tolga veramente, o se ci siano veramente quei virus.
La cosa invece davvero fastidiosa è che non permette la sua rimozione (è molto nascosto), non permette l'installazione di altri antivirus, disattiva il Firewall di Windows e ogni altro antivirus esistente. Quindi è un particolare oggetto a cui prestare attenzione.

(19. 09. 2009)
Peccato pero' che la soluzione, che il sito indicato propone nel download, sia una soluzione a pagamento, ovvero un programma commerciale che ricerca i vari maleware, ma risolve il problema pagando la licenza allo stesso.

Ma possibile che non ci sia la possibilità d'avere un prodotto serio, una soluzione seria senza dover pagare sempre, sottostare sempre a questi ricatti. Incredibile.
L'unica soluzione che rimane ai poveri utenti e di stare molto attenti a cio' che si scarica e si installa, documentarsi prima di installare qualsiasi cosa.
L'alternativa sarebbe quella di trovare un sistema che non soffra del problema dei virus. :-) ma quello sapete già dove trovarlo.

martedì 8 settembre 2009

Rendere piu' veloce il proprio PC

Spesso capita di notare un rallentamento del proprio PC, dite che è da poco che l'avete comprato, dentro ci sono pochi programmi, tanti ne ho cancellati, ho fatto il backup, ho tolto tante foto, tanta musica, ok ora ne ho messa dell'altra, ma vedo che il pc è sempre lento.
Ci sono alcune operazione che vale la pena eseguire ogni tanto per mantenere pulito il proprio Hard Disk.
La prima cosa con Windows è senz'altro cancellare i file inutili, in accessori ci sono i programmi di Utility, fra questi c'è pulizia disco, toglie tutti i file che non servono, ma che ostacolano la ricerca dei vari blocchi utili, possono essere i file nel cestino, i file scaricati da internet, file di installazione che sono ormai inutili, con questo programma si fa una bella pulizia, non si guadagnerà molto spazio sul disco, ma si compie almeno una prima pulizia.
La seconda cosa da fare è una deframmentazione del disco. Operazione che significa mettere in ordine i vari blocchi di cui è composto il disco, seguendo l'ordine dei file, questo programma lo si trova sempre in accessori, utilità di sistema, è un'operazione un po' lunga, a seconda di quanto grande è il disco e di quanto "disordinato" è, questo semplifica ai vari programmi la ricerca consecutiva dei vari file di utilizzo, spostando e raggruppando gli spazi vuoti nei settori piu' estremi del disco.
Questo sistema permette di mettere un po' di ordine nella "testa del computer", e già dovrebbe velocizzare tutte le operazioni. Pero' non è detto che la lentezza dipenda dall'ordine del disco. Bisogna anche essere sicuri che non ci siano programmi che ne impediscano la velocità, tipo programmi che rimangono attivi a lungo eseguendo operazioni rindondanti, questi possono essere non bene installati o che hanno problemi di programmazione, possono essere anche programmi che contollano l'attività, tipo spybot, troyan, e altri virus.
Se se è certi della sicurezza del proprio PC, ovvero se si usano programmi antivirus validi, buoni programmi di firewall, e buoni programmi anti spybot, allora bisogna trovare il motivo di tale lentezza. Ricordarsi che ci sono programmi anti spybot che lavorano troppo potrebbe aiutare. Proviamo a disattivare la connessione a internet, tanto per non rischiare l'ingresso malaugurante di parassiti. Chiudiamo le applicazioni che verificano la presenza di agenti esterni. E' ancora lento? No? allora è probabile che il programma di controllo che avete controlla troppe volte il computer, bisogna settarlo in modo che vi permetta di lavorare. Alternativa, provate a cercare un programma di protezione, valido, ma non troppo pesante nelle prestazioni.
Avete fatto tutto il possibile per avere un computer piu' veloce, ma i programmi che usate non permettono un'esecuzione semplice della vostra attività sul PC. Probabilmente è meglio aggiungere un po' di memoria RAM alla vostra macchina, diciamo che la raddoppiamo, da 1 Gb passiamo a 2 Gb, da 2 Gb passiamo a 4 Gb, certo poi dipende dai programmi che si usano, i programmi per le elaborazioni fotografiche e video hanno bisogno di buone capacità di memoria, per cui aumentare la memoria RAM è una cosa molto utile.
Per quanto riguarda le prestazioni video è da ricordare che lavorare i video significa dover disporre di una buona quantità di RAM, ma anche di una buona scheda video, con una buona capacità di memoria, già anche questa condiziona la velocità del PC.
Sempre dipende da quello che si elabora con la propria macchina. Se vi dedicate soprattutto all'elaborazione video, ma avete un computer piu' adatto ad un ufficio, forse varrebbe la pena di pensare all'acquisto di un PC adatto, con caratteristiche portate all'estremo forse, ma predisposto per un utilizzo idoneo al caso.

che cos'è la CPU

CPU è un acronimo che sta per unità centrale di elaborazione. L'unità centrale di elaborazione è responsabile per l'esecuzione di tutti i calcoli matematici che sono necessari per un computer per funzionare correttamente. Perché un computer non può funzionare senza la CPU (che può anche essere denominato processore centrale o solo il processore), non è raro sentire persone che si riferiscono alla CPU come il "cervello" di un computer.

Come funziona il lavoro della CPU?

Per svolgere correttamente il suo lavoro, la CPU deve completare un ciclo di quattro fasi. Il primo passo in questo ciclo è quello di scaricare un insegnamento da un programma software della memoria. Una volta che la CPU recupera l'istruzione, il suo secondo passo è quello di decodificare le istruzioni. Con decodifica l'istruzione, la CPU è in grado di organizzare le informazioni da parte delle istruzioni in un modo che permette alla CPU di completare il passaggio successivo, che è in esecuzione.

Durante la fase di esecuzione, la CPU completa di istruzioni. Essa compie questo seguendo le informazioni acquisite durante la fase di decodifica. Una volta che la CPU ha finito di eseguire l'istruzione, la fase finale di questo ciclo è quello di write-back sui risultati che si sono verificati durante l'esecuzione passo. La CPU-back in grado di scrivere i risultati al proprio interno la registrazione, o per la memoria principale del computer.

Che cosa fanno le imprese CPU?

Mentre vi sono numerose aziende che fanno CPU per scopi diversi, i due più noti produttori di CPU per i computer dei consumatori sono AMD e Intel.

venerdì 28 agosto 2009

AGP e PCI-ex: cosa sono e come funzionano

(Tratto da xtremehardware: http://www.xtremehardware.it/hardware/agp-e-pci-ex:-cosa-sono-e-come-funzionano-20070511632/)


AGP è l’acronimo di Accelerated Graphic Port, è stata sviluppata da Intel nel 1996 come soluzione per aumentare prestazioni e velocità delle schede grafiche connesse ai PC, infatti ha raddoppiato le prestazioni delle porte PCI normali.
Nel 1999 venne sviluppata una nuova versione dell’AGP ossia l’AGP pro. Questo nuovo slot era retro compatibile naturalmente, e supportava entrambe le alimentazioni (1.5v e 3.3v). Questo standard ebbe una grande evoluzione in termini di potenza erogata, passando da 25w inizialmente fino ad un massimo degli ultimi slot di ben 110w.

Successivamente quando questo standard non riusciva più a venire incontro alle esigenze delle nuove periferiche sul mercato fu introdotto il PCIe. Il PCI Express è l'evoluzione del bus di espansione PCI, introdotto con i primi Pentium che ha ampiamente preso il posto ormai della vecchia interfaccia per schede grafiche, l'AGP appunto.

Tecnicamente lo standard PCIe è basato su un trasferimento dei dati seriale, a differenza di quello parallelo del PCI, che semplifica il layout del PCB delle schede madri (Il PCB è il circuito stampato, ossia quel componente adibito a collegare i vari slot, e a fare da supporto meccanico per i componenti e gli accessori (dissipatori, connettori, ecc …)). Questa interfaccia ha un grande punto a favore, permette di usare più periferiche in parallelo, sommando così la potenza di calcolo. Inoltre la banda passante di ciascun canale è indipendente da quella degli altri.

Anche se il nome è lo stesso lo standard PCI Express si divide in due tipi:

1) Il primo tipo è costituito da un singolo canale, ed offre una larghezza di banda teorica di 266 MBytes/s e sarà lo standard che prenderà il posto degli attuali slot PCI che abbiamo nei nostri PC. Oltre alle prestazioni migliori il PCIx1 ci darà la possibilità di praticare l’hot swap, ovvero di sostituire una scheda a PC acceso senza arrecare nessun danno. Un po’ come accade ora con gli hdd SATA.
2) Il secondo tipo è il PCIx16 che come dice il nome è costituito da ben 16 canali, offre il doppio della velocità rispetto all’AGP e teoricamente ha una banda passante di 2.5 Gb/s sia in entrata che in uscita.

AGP

La connessione Accelerated Graphics Port (AGP) è stata sviluppata da Intel nel 1996 come soluzione per aumentare prestazioni e velocità delle schede grafiche connesse ai PC. Si basa sullo standard PCI 2.1 e per questo effettua trasferimenti a 32 bit alla frequenza base di 66 MHz (il doppio dello standard PCI). Poiché il trasferimento dei dati avviene in modalità parallela, non è possibile una comunicazione bidirezionale contemporanea.

Storia

L'idea con cui viene creata è quella di permettere un accesso diretto alla memoria fisica del computer da parte della scheda grafica, in modo da poter gestire texture e oggetti 3D molto voluminosi. Lo slot AGP compare per la prima volta su una scheda madre con il chipset Intel 440LX, prodotto all'inizio del 1997. In breve tempo la Nvidia sviluppa le prime schede grafiche basate su GPU TnT, e il chipset rivela i suoi problemi nel fornire una corretta alimentazione alla scheda grafica. Le soluzioni trovate sono diverse: alcuni produttori si affidano alla successiva versione del chipset Intel, il modello 440BX, che supporta l'alimentazione a 3,3V. Altri riducono la richiesta di potenza delle GPU, passando dal processo produttivo a 0.25 micron a quello a 0.18 micron. Questo accorgimento permette di ridurre il consumo elettrico e il calore generato, nonostante significativi aumenti della frequenza operativa.
Nell'aprile del 1999 viene rilasciata la specifica dell'AGP Pro, ritenuta la soluzione a tutti i problemi di alimentazione. AGP Pro è retro-compatibile e viene prodotto in tre versioni diverse: la 1,5V, la 3,3V e la versione Universal, compatibile con entrambi i voltaggi. Lo slot AGP assume così dimensioni e configurazioni diverse a seconda dei voltaggi, in modo da impedire l'inserimento di una scheda in uno slot di tipo errato. Gli slot AGP Pro vengono ulteriormente perfezionati, in modo da poter fornire prima fino a 25W e, successivamente, 50W e addirittura 110W di potenza. Inoltre viene incrementata la frequenza di trasmissione dati per ottenere un flusso di dati sempre maggiore tra la scheda video e la memoria fisica.

Revisioni

La prima versione dello standard AGP raddoppiava la banda passante rispetto a un normale slot PCI perché ne raddoppiava la frequenza, raggiungendo quindi i 266 MB/s, ma era capace di funzionare anche in modalità 2x e raggiungere i 533 MB/s effettuando ben due trasferimenti per ciclo di clock. Successivamente, le versioni 2.0 e 3.0 hanno introdotto la possibilità di 4 e 8 trasferimenti per ciclo di clock, giungendo alla odierna frequenza equivalente di 533 MHz. Per prevenire problemi di compatibilità tra le differenti versioni, è sempre previsto il funzionamento in modalità safe 1x, quindi a 266 MB/s.

Questa modalità viene attivata automaticamente dal BIOS in caso di problemi.
• AGP 1.0
o AGP 1x: 266 x 1 = 266 MB/s
o AGP 2x: 266 x 2 = 533 MB/s
• AGP 2.0
o AGP 4x: 266 x 4 = 1066 MB/s
• AGP 3.0
o AGP 8x: 266 x 8 = 2133 MB/s

La versione 3.0 è l'ultima evoluzione di questo bus, che si prepara ad essere rimpiazzato dal più veloce PCI Express, il quale sostituirà anche l'interfaccia PCI. Questo nuovo standard dovrebbe permettere velocità di trasferimento fino a 5,8 GB/s teorici.

Alimentazione

Esistono tre tipi di alimentazione previsti dallo standard:
• AGP 1,5 V
• AGP 3,3 V
• AGP Universal (compatibile con entrambi i precedenti)

La molteplicità delle possibili velocità di trasmissione dei dati e dei voltaggi ha portato a problemi di compatibilità, specialmente per quanto riguarda le vecchie schede madri. A partire da quei modelli che supportano l'AGP 3.0, i produttori si sono sforzati per supportare tutte le possibili configurazioni. Gli ultimi modelli di schede grafiche, come ad esempio la serie 6800 ultra della Nvidia, richiedono troppa potenza perché lo slot AGP possa sopperire a questa richiesta. Così, sono in commercio alcune schede grafiche con connettori MOLEX per un'ulteriore alimentazione. Questa sovralimentazione non verrà abbandonata, nonostante le più evolute specifiche di alimentazione del PCI Express, molto maggiori rispetto a quelli dell'AGP; infatti, al 2007 si trovano già in commercio schede video PCI Express di fascia alta che richiedono un'alimentazione aggiuntiva.

Per riconoscere i tre tipi di alimentazione sono stati predisposti degli slot e dei pettini per le schede leggermente diversi: smontando la scheda video, coi pin in basso e il connettore VGA a destra, va osservato il secondo pin da destra. Se questo è connesso alla circuiteria della scheda, questa supporta la modalità 1,5V, altrimenti la scheda supporta la modalità 3,3V. Lo slot AGP invece è più facilmente distinguibile. Se il separatore è posto verso la sinistra dello slot (verso il retro del case) lo slot supporta unicamente i 3,3V, se è posto a destra (verso il fronte del case) esso supporta unicamente l'alimentazione a 1,5V. Se invece non sono presenti separatori nello slot, questo è di tipo Universal e risulta compatibile con tutte le diverse alimentazioni.

PCIe

PCI Express, abbreviato ufficialmente con PCIe (e molte volte confuse con PCI Extended, quest’ultimo ufficialmente abbreviato con PCI-X), è un formato di interfaccia per il bus di sistema e le periferiche di espansione. E’ stata create con l’intendo di rimpiazzare completamente le vecchie interfacce PCI, PCI-X, e AGP. L’interfaccia PCIe Express è fisicamente ed elettronicamente incompatibile con il format PCI, anche se condividono la stessa interfaccia software e quindi possono essere interconnesse tra loro. Durante lo sviluppo di questa nuova interfaccia, lo standard PCI Express veniva chiamato col il nome in codice Arapaho oppure 3GIO (che sta per 3rd Generation I/O).
Lo Standard PCIe è un formato di interfaccia seriale/parallelo. Questo standard (alla versione PCIe 1.1) è in grado di avere un transfer rate pari a 250 MB/s in ogni direzione per ogni canale. Con un massimo di 32 canali riusciamo quindi a raggiungere un transfer rate di ben 8GB/s in ogni direzione. Per capire meglio con un esempio pratico…un singolo canale PCIe ha quasi il doppio della potenza di trasferimento dello standard PCI; uno slot a quattro canali, ha un transfer rate paragonabile a quello di un PCI-X 1.0, e uno slot a otto canali lo possiamo paragonare alla versione più veloce dello standard AGP.
Diversamente dalle classiche porte di espansione PCI, lo standard PCI Express è sia full duplex che point to point. Questo significa che mentre il PCI-X 133mhz 64 bit e PCI Express x4 hanno lo stesso data transfer rate, se noi colleghiamo simultaneamente coppie multiple di dispositivi PCIe, avremo un grande incremento di performance pure.


In generale

Fisicamente il layer PCIe consiste in una rete di interconnessioni seriali. Un ponte che le schede madri utilizzano come uno switch multiplo che permette alle connessioni point to point tra i vari dispositivi di essere reindirizzate on the fly (ossia…al momento dell’utilizzo). Questo comportamento dinamico diventa anche parallelo dal momento che una coppia di devices può comunicare con un'altra allo stesso tempo. (Al contrario, le vecchie interfacce dei PC avevano tutte le periferiche costantemente collegate allo stesso bus, quindi solo una alla volta poteva “parlare”). Questo metodo è molto simile alla differenza tra conversazioni telefoniche dove siamo in diretto contatto con la persona con cui stiamo parlando o le conversazioni in un meeting dove dobbiamo aspettare il nostro turno per poter parlare. Questo formato permette inoltre il “canne grouping”, ossia dove canali multipli sono collegati insieme a una singola coppia di periferiche in modo da aumentare la banda passante (bandwith).
Il formato di unione in serie fu scelto al posto del tradizionale metodo in parallelo a causa del fenomeno globalmente conosciuto con timing skew. Questo fenomeno è una limitazione imposta dalla velocità della luce: quando un segnale elettrico percorre un filo viaggia ad una velocità finita. Siccome tracce differenti in un’interfaccia hanno lunghezze differenti, dei segnali paralleli trasmessi simultaneamente da una sorgente arrivano a destinazione in tempi diversi. Quando l’interconnessione del clock rate aumenta e arriva al punto dove le lunghezze d’onda di un singolo bit eccedono questa differenza di lunghezza della traccia, il bit di una singola parola non arriva a destinazione simultaneamente, così facendo è impossibile ricostruire la parola. Così la velocità della luce, combinata con la differenza di lunghezza tra la più lunga e la più corta traccia in una interconnessione parallela porta ad un massimo fisico di larghezza di banda per avere un trasferimento di dati stabile e sicuro. Un collegamento in serie dei canali non ha questo tipo di problemi visto che non ha bisogno che i dati arrivino simultaneamente a destinazione. PCIe è un esempio di questo tipo di connessione in serie. Altri esempio sono l’HyperTransport, il Serial ATA, e l’USB per farne alcuni dei più comuni. Ed è per questo motivo che nei server professionali si preferisce usare il SAS al posto delle normali connessioni.
Lo standard PCIe è stato supportato originariamente da Intel, che ha iniziato con il progetto Arapahoe, e ha seguito con il sistema InfiniBand. PCie è stato creato con l’intento di essere usato solo come un’interconnessione locale. E’ stato sviluppato per essere compatibile appieno con il vecchio standard PCI, in modo tale da rendere facile la conversione verso il PCIe appunto.


Sommario generale del protocollo Hardware


Il link PCIe è costruito attorno a una coppia dedicate e unidirezionale di connessioni in serie point-to-point conosciute come “canali”. Questo risulta essre in evidente contrasto con lo standard PCI, che è basato essenzialmente su un sistema di bus dove tutte le periferiche sono connesse allo stesso bus bidirezionale e parallelo a 32-bit o 64bit.
PCI Express è un protocollo a strati, che consiste essenzialmente in tre diversi layer: il Transaction Layer, un Data Link Layer, e un Physical Layer. Il Layer fisico è suddiviso ulteriormente in un sublayer logico ed uno elettrico.
Il sublayer logico a sua volta è frequentemente diviso in un Physical Coding Sublayer (PCS) e un sublayer Media Access Control (MAC).

Physical Layer

A livello elettrico, ogni canale utilizza due coppie segnali differenziali a basso voltaggio unidirezionali a 2.5 Gbit/s. La trasmissione e la ricezione sono coppie differenziali separate, per un totale di 4 cavi dati per canale.
Una connessione tra due periferiche PCIe viene chiamata “link”, ed è costituita dall’unione di 1 o più canali. Tutte le periferiche devono supportare come minimo un link a singolo canale (x1), ma possono anche supportare link più grandi composti di 2,4,8,12,16, o 32 canali. Ciò permette un’ampia compatibilità in due modi: una scheda PCIe può fisicamente entrare (e funzionare perfettamente) in un qualsiasi slot che è largo almeno quanto la scheda stessa (es.una scheda x1 potrà lavorare in qualsiasi slot), e uno slot di grandi dimensioni (per esempio un x16) può essrre connetto elettricamente con altri canali più piccoli (es. x1 o x8) sempre che riesca a provvedere alla corretta alimentazione richiesta dalla più grande ampiezza fisica dello slot. In entrambi i casi, il PCIe cercherà di usare il maggior numero di canali supportati vicendevolmente. Non è fisicamente possibile però inserire una scheda PCIe in uno slot più piccolo, nemmeno se fossero anche solo compatibili.
Il PCIe manda tutti i messaggi di controllo, incluse le interruzioni, attraverso lo stesso link usato per i dati. Il protocollo seriale non potrà mai essere bloccato, così la latenza sarà sempre compatibile con il PCI, che ha linee dedicate per le interruzioni.
I dati trasmessi su canali multipli sono intervallate, cioè significa che ogni byte successivo viene spedito attraverso il successivo canale. Le specifiche PCIe fanno riferimento a questo “interleaving” attraverso la voce “data striping”. Questo metodo richiede una grande complessità di hardware per sincronizzare (deskew) i dati trasmessi in striping, ma permette una maggiore potenza del canale.
Come tutti i grandi protocolli di trasmissione seriale, le informazioni riguardanti il Clock devono essere inserite nel segnale stesso. A livello fisico, PCI Express utilizza il comunissimo schema 8B/10B per l’encoding per assicurare che le stringhe di uno o zero consecutivi siano limitate in lunghezza. Questo è necessario per prevenire che il ricevitore perda la traccia dell’inizio e della fine del bit. Con questo schema di encoding, ogni 8Bit di trasmissione vengono rimpiazzati con 10 bit di trasmissione, consumanto un extra 20% di larghezza di banda elettrica.
Alcuni altri protocolli (SONET) usano differenti schemi di encoding, conosciuti come “scrambling” per implementare le informazioni del CLOCK all’interno del flusso di dati. Le specifiche del PCI Express definiscono anche un algoritmo di scrambling, ma questa forma di scrambling non deve essere confusa con quella inclusa nel SONET. Nel PCIe questa funzione viene utilizzata per evitare ripetizioni di serie di dati trasmessi.
La prima generazione PCIe è stata limitata ad un singolo rate di segnale a 2.5 Gbit/s. Le industrie specializzate in questo formato stanno già creando future versioni a 5 e 10 Gbit/s.

Data Link Layer

Il Data Link Layer implementa sequenze di pacchetti Layer di transazione (Transaction Layer Packet TLPs) che sono generati dal Layer Transazione, protezione di dati attraverso un ciclo di check ridondanti con un codice a 32-bit (cyclic redundancy check alias CRC, ma più conosciuto in questo contesto come LCRC), e un protocollo di riconoscimento (ACK e NAK). I TLP che passano un check LCRC diventano una sequenza di numeri risultati dal riconoscimento, o ACK, mentre quelli che non passano questo check diventano NAK. Pacchetti TLP che diventano NAK o timeout che occorrono nell’attesa di un ACK, diventano dei TLP che vengono ritrasmessi da uno speciale buffer che trasmette la serie di dati del Data Link Layer. Questo garantisce la consegna dei TLP al posto di rumore elettrico, evitando così ogni possibile malfunzionamento della periferica.
I segnali ACK e NAK sono comunicati attraverso pacchetti di basso livello conosciuti come pacchetti del data link layer appunto (in inglese data link layer packet o DLLP). Questi DLLP sono spesso usati per comunicare il informazioni sul controllo del flusso tra i transaction layers di due periferiche connesse, come anche alcune funzioni di power management.

Transaction Layer

Il PCI Express implementa transazioni separate (trasmissioni nelle quali la richiesta e la risposta sono separate nel tempo), permettendo al canale di portare altro traffico nel frattempo che il la periferica target acquisisce i dati per la risposta.
Il PCI Express utilizza un controllo del flusso basato sui “crediti”. In questo schema, una periferica accumula un tot di crediti iniziali per ogni trasmissione del buffer nel sul Layer Transaction. La periferica all’altro capo del link, quando sta mandando un segnale alla prima, conterà il numero di crediti consumati da ogni TLP. La periferica che trasmette può funzionare e quindi inviare un segnale solo se inviandolo non eccede il numero massimo di crediti a sua disposizione. Quando la periferica che acquisisce ha processato tutti i TLP dal suo buffer, manderà un segnale di crediti alla periferica trasmettitrice così da dargli altri crediti ripristinando il numero iniziale a sua disposizione. Questo schema è molto più vantaggioso di altri quali il Wait States, o il protocollo basato sul HandShake, poiché il segnale di ritorno dei crediti non danneggia le performance.
La prima generazione di PCIe supporta un data rate di 250 MB/s in ogni direzione, per ogni canale. Questo risultato è un calcolo banale, che viene fuori dividendo dal rate di segnale fisico (2.5 Gbaud) diviso per il segnale di encoding (che come sopra detto corrisponde a 10bits/byte). Questo significa che una scheda PCIe con il canale le a x16 è capace (teoricamente) di un trasnfer rate di ben 250 x 16 = 4GB/s in ogni direzione. Questo dato è corretto, ma certamente è più utile fare un calcolo basato su il carico realmente utilizzabile, che dipende dal profilo del traffico stesso, che è una funzione delle applicazioni (software) di alto livello e di livelli di protocollo intermediari. Lunghi trasferimenti continui di dati (come accade spesso con i controller di memoria) possono utilizzare anche più del 95% della capacità grezza del data rate del PCIe. Questi trasferimenti beneficiano maggiormente del numero di canali (x2, x4, etc.). Ma in molte applicazioni tipiche (che possono essere i controller USB o Ehternet) il profilo del traffico è caratterizzato come corti pacchetti di dati ma con frequenti riconoscimenti. Questo tipo di traffico riduce l’efficienza del link, a causa di un surplus di pacchetti da analizzare e quindi forzatamente interrotti (o nella periferica stessa o nella CPU del PC). Questo perdita di efficienza però non è così grande nel PCIe.

Come funziona il Serial ATA - parte 3

RAID e server
Con il SATA II, che prevede tra l'altro backplane, gestione dei telai, moltiplicatori di porta e connessioni multiple, diventa facile assemblare telai per lo storage in RAID con connessioni multiple compatte (attraverso appositi connettori per backplane).

Il SATA si appresta quindi a occupare lo spazio dei server di fascia medio-bassa di costo contenuto, lasciando allo SCSI la fascia delle applicazioni ad alte prestazioni e prezzo decisamente più alto.

Il confronto fra i vari tipi di bus

Interfaccia ATA SATA SCSI SCSI seriale Fibre Channel
Tipo di interfaccia parallela seriale parallela seriale seriale
Indirizzam. (n. drive) 2 1 o 16 con SATAII 16 128 16 milioni
Distanza (metri) 0,5 1 12 10 10 Km
Connessione 80 fili/40 pin 7 pin 68 pin, interno/ esterno 7 pin rame/ottico, interno/ esterno
Doppia porta no no no
Topologia bus punto a punto bus punto a punto con espansioni loop, fabric
Duplex half half half full full
Max n. dispositivi 2 1 o 15 con port multiplier 16 4.096 con espansioni 127 loop, 2*24 fabric
Lunghezza cavo 0,45 m 1 m 12 m 10 m 30 m (rame)/ 300 m (ottico)
Applicazioni storage interno ATA RAID, server e workstation server di fascia media/ enterprise server di fascia media/ enterprise SAN e server enterprise

Informazioni
Trovate abbondanza di informazioni sul Serial ATA sia nei siti dei produttori (Maxtor, Seagate, Adaptec ecc.) sia nel sito del Serial ATA Working Group (www.serialata.org).

Come funziona il Serial ATA - parte 2

SATA II
Quanto descritto sopra appartiene alla specifica Serial ATA 1.0. Lo standard SATA si basa sull'ATA parallelo ed è stato definito in modo da essere compatibile a livello software con i driver ATA. Perciò, la transizione da ATA a SATA dovrebbe essere trasparente per il sistema operativo.

I primi hard disk SATA non erano dotati di interfaccia seriale nativa, ma includevano un bridge tra ATA parallelo e seriale; ora gli hard disk supportano il SATA in modo nativo.

Terminata la fase iniziale dell'ATA 1.0, ora si è entrati nella fase 1 della seconda versione SATA, ovvero SATA II Phase 1.

Il SATA 1.0, infatti, non include certi aspetti necessari per configurazioni con server e storage di rete e per workstation ad alte prestazioni. SATA II è un superset delle specifiche 1.0 e viene introdotto in due fasi, di cui la prima è di un certo interesse per chi acquista un nuovo computer.

La Fase 1 (Phase 1), in corso di attuazione, prevede:
1) miglioramenti di prestazioni che sotto il nome di Native Command Queueing (accodamento nativo dei comandi) comprendono l'accodamento dei comandi e il riordino della sequenza di esecuzione dei comandi,
2) la gestione del o dei telai (Enclosure Management), che include controllo delle ventole, indicatori di attività, controllo di temperatura, notifica dei nuovi dispositivi ecc. (per esempio, in caso di guasto a un disco in RAID, viene individuata l'unità interessata) e
3) una soluzione per la scheda di interconnessione dei drive (backplane) nei server, che estende la lunghezza massima delle tracce ad uso dei rack e dei drive hot-swappable (sostituibili a macchina accesa).

La fase 2 del SATA II prevede ulteriori estensioni sempre per server e storage di rete e la seconda generazione di velocità, ovvero 300 MBps trasferibili lungo la connessione.

Le reali prestazioni dei dischi dipendono da fattori come densità di registrazione, velocità di rotazione, tempo di accesso delle testine, capacità del buffer e supporto NCQ (Native Command Queueing).

Inizialmente non si noterà un vantaggio nella transizione da ATA a SATA, a meno che non utilizziate intensamente (con molte attività in multitasking e multithreading) un sistema equipaggiato con dischi e chip-set con supporto NCQ.

La roadmap SATA è comunque progettata per un periodo di 10 anni, quindi prevede estensioni e crescita di prestazioni al di là dei prodotti attualmente in vendita.

Native Command Queueing
Di tutte le caratteristiche del Serial ATA sopra citate, l'unica che porta un salto di qualità nella realizzazione dei PC è la riduzione di dimensioni dei cavi e dei connettori unita all'incremento della lunghezza massima dei cavi.

Dal punto di vista degli acquisti a breve termine, vi può interessare il supporto NCQ. Le linee più recenti di hard disk SATA ne sono dotate, come pure i controller SATA inclusi nei nuovi chipset per PCI-Express (per esempio di Intel e VIA).

Tuttavia facciamo notare che i primi test mostrano incrementi di prestazioni nei test sintetici ma non con le reali applicazioni.

Nell'uso quotidiano del desktop, con tutta probabilità, non avrete benefici tangibili dall'uso di dischi SATA con NCQ.

Se dovete acquistare un nuovo sistema e volete avere le tecnologie più recenti, accertatevi che il chipset e gli hard dischi supportino l'NCQ (SATA II Fase 1), ma se state usando dischi ATA e volete migliori prestazioni, la strada maestra è quella di passare allo SCSI, non al SATA.

Sgombrato il terreno da false aspettative, diamo un'occhiata a come funziona l'NCQ, che dagli anni '90 è supportato dai dischi SCSI e finalmente approda anche sui comuni desktop.

Normalmente, per accedere ai dati su disco, la CPU invia una richiesta e, se il dato non è presente in una delle cache, viene comandato alle testine di posizionarsi in modo da potere iniziare la lettura dei dati.

Trascurando i dettagli (una lettura logica può richiedere parecchie letture fisiche), se occorre accedere a una serie di dati non sequenziali distribuiti in varie zone del disco, le testine dovranno saltare da un cilindro all'altro, avanti e indietro.

Per esempio, se la sequenza di accesso è A, D, B, F, G, C, E (immaginando che la sequenza alfabetica corrisponda all'angolo di rotazione), si perderanno parecchi cicli di rotazione prima che le testine abbiano visitato tutti i blocchi di dati.

Con il NCQ, il disco immagazzina una coda delle richieste di accesso, quindi le riordina (ne cambia la sequenza) per ridurre al minimo il numero di rotazioni e il tragitto delle testine in modo da eseguire tutti gli accessi nel più breve tempo possibile.

La rotazione dei piatti e il posizionamento sulla traccia (seek) sono i due criteri per ottimizzare l'esecuzione dei comandi in coda, così da compiere il tragitto più breve per visitare tutti i blocchi di dati che la coda di comandi prevede di leggere e scrivere.

Questo meccanismo di accodamento e riordino è paragonabile all'ottimizzazione delle consegne da parte di un corriere che debba consegnare decine di colli in diverse zone di una città; anziché esaminare una consegna per volta in sequenza e saltare continuamente da un capo all'altro della città, il corriere stabilisce il percorso che richiede il tempo minore per eseguire tutte le consegne.

Per sfruttare il NCQ occorre che le applicazioni creino code di comandi, il che non succede se è in esecuzione una singola applicazione che attende la risposta a una richiesta di dati prima di inviare la richiesta successiva.

L'alternativa è utilizzare parecchie applicazioni in esecuzione simultanea, oppure applicazioni multithreaded o anche, secondo Intel, applicazioni scritte per sfruttare l'HyperThreading.

Visto il modesto successo dell'HyperThreading, possiamo supporre che l'introduzione delle CPU dual-core incoraggi gli sviluppatori a scrivere software con più thread paralleli, che potrebbero contribuire a creare code di comandi di accesso a disco.

In definitiva, l'NCQ, come tutte le funzioni introdotte nel SATA II, avvantaggia server e network storage più che i desktop di tutti noi.

In ogni caso, per sfruttare le potenzialità dei dischi ad alte prestazioni occorre anche disporre di piattaforme hardware capaci di supportare la crescente larghezza di banda messa a disposizione dai dischi SATA (come avviene anche per lo SCSI) e dalle altre connessioni su cui vengono fatti scorrere i dati (USB, FireWire, Gigabit Ethernet ecc.).

Uno degli elementi chiave di questa crescita è la connessione PCI-Express (vedi articolo pubblicato sul numero scorso), che mette ordine tra i vari tipi di connessione e porta sui desktop prestazioni prima riservate ai server.

IDE, ATA, SATA

Come funziona il Serial ATA
Dopo vent'anni di sviluppi, l'interfaccia ATA ha raggiunto il limite della sua evoluzione e cede il passo alla sua versione seriale, progettata per durare dieci anni

gennaio 2005 L'interfaccia parallela che viene usata dal 1984 per la connessione degli hard disk prese il nome ATA (AT Attachment) perché disco e controller, combinati, si collegavano al bus di I/O del PC AT IBM di quel tempo.

Alcuni produttori hanno quindi chiamato questa interfaccia IDE (Integrated Drive Electronics) per indicare che l'elettronica era integrata nel drive (sotto forma di circuito stampato applicato sul fondo dell'hard disk), a differenza dei primi dischi che avevano bisogno di un controller separato su scheda.

Prima del Serial ATA (SATA), i termini IDE (e il successivo EIDE, Extended IDE) e ATA sono stati usati come sinonimi, anche se, a voler essere precisi, IDE si riferisce al fatto che l'elettronica di controllo è integrata nel drive e ATA, con le sue varianti, si riferisce a una specifica implementazione di IDE.

La cronologia delle interfacce per hard disk vede la ST-506/412 dal 1978 al 1989, l'ESDI dal 1983 al 1991, versioni IDE non ATA dal 1987 al 1993, SCSI dal 1986 a oggi, ATA (IDE) dal 1986 a oggi, SATA dal 2003 e SAS (Serial Attached SCSI, la versione seriale dello SCSI) a partire dal 2004.

Dal parallelo al seriale
L'interfaccia ATA originaria è parallela a 16 bit, quindi trasporta due byte per ciclo di trasferimento.
Fino al 1998 ha utilizzato un cavo a 40 connettori (16 per i dati, 8 fili di terra e il resto per indirizzi e segnali di controllo).

Con la piattina a 40 fili la velocità di trasmissione è cresciuta dagli 8,33 MBps (megabyte/secondo) dell'ATA-1 ai 33,33 MBps dell'ATA-4.

Con l'ATA-4 hanno avuto origine le modalità Ultra DMA (Direct Memory Access), chiamate anche Ultra ATA (per es. l'ATA-4 UDMA Mode 2 da 33 MBps è anche chiamato Ultra-ATA/33 o ATA-33).

Con l'Ultra DMA viene introdotto il doppio data rate (due cicli di trasferimento per ciclo di clock), per cui la capacità della connessione raddoppia a parità di frequenza di clock (4 byte per ciclo di clock).

Con i successivi livelli ATA, dal 5 al 7, la velocità è cresciuta a 66, 100 e 133 MBps, usando le modalità UDMA Mode 4 (Ultra-ATA/66), Mode 5 (Ultra-ATA 100) e Mode 6 (Ultra-ATA/133).

Tutte le modalità a partire dall'ATA-66 richiedono un cavo a 80 fili, anche se i connettori restano quelli standard a 40 piedini.

I cavi ATA sono lunghi da 25 a 45 cm (ne esistono di più lunghi, ma sono da evitare perché non garantiscono la trasmissione corretta dei dati) e solitamente presentano tre connettori, uno dal lato motherboard e due per i drive (hard disk e CD/DVD).

I drive possono essere configurati come master (primo o unico drive), slave (secondo drive installato) o cable select (autoconfigurazione di master e slave), il sistema più comodo.

Oggi la maggior parte dei bus e connessioni è di tipo seriale, perché è molto più facile trasportare un bit alla volta ad altissime frequenze di clock che diversi byte in parallelo a frequenze comunque alte.

Le interferenze e le differenze di propagazione tra i segnali paralleli sono tra le cause delle difficoltà. Mentre la connessione ATA è un bus a cui sono connessi uno o due drive, l'ATA seriale utilizza un collegamento punto a punto; un controller può supportare più drive, ma ciascuno ha il suo cavo SATA separato.

L'ATA-133, per supportare 133 MBps, utilizzava un bus largo 16 bit, un clock di 33 MHz e due trasferimenti per ciclo di clock.

La connessione SATA utilizza sette fili: due coppie di conduttori, una per trasmettere e una per ricevere, e tre fili di terra. I dati sono trasmessi con un clock che, nella versione SATA attuale, è di 1,5 GHz.

Dato che viene usata la codifica detta 8B/10B, che impiega 10 bit per ogni byte trasmesso, la larghezza di banda della connessione è di 150 MBps.

Questa versione di SATA si chiama quindi SATA-150; nei prossimi anni sono previsti il SATA-300 (ormai vicino) e in seguito il SATA-600.

Connettore dati
Nel corso degli anni abbiamo visto diminuire progressivamente la tensione di alimentazione dei processori, delle memorie e degli altri componenti della motherboard.

Il cavo ATA parallelo, con i suoi 26 segnali a 5 volt, era diventato problematico anche a causa dell'ingombro dei connettori e delle relative piste sulla motherboard fino al chipset.

Per di più, le piattine che attraversano lo spazio del telaio per connettere la motherboard agli hard disk e CD/DVD (oltre al floppy disk) tendono a ostacolare i flussi di ventilazione.

Il limite di 45 cm non facilita una disposizione ordinata dei cavi, spesso troppo corti per aggirare la zona centrale del telaio.

Oltre a usare basse tensioni (250 mV) e pochi fili, i cavi SATA hanno il vantaggio di poter essere lunghi fino a un metro.

Anche nel più voluminoso dei telai trovano quindi posto senza interferire con altre connessioni e con i flussi d'aria.

Il numero ridotto di conduttori e le piccole dimensioni del connettore e del cavo facilitano il progetto delle motherboard e l'utilizzo degli hard disk in computer e altri dispositivi di piccole dimensioni.

La codifica 8B/10B usata dal SATA e da altre interfacce (tra cui Gigabit Ethernet, Fibre Channel e Firewire), garantisce che non vengano mai trasmessi più di quattro 0 o 1 consecutivi in ciascun carattere di 10 bit.

Dato che 0 e 1 sono trasmessi come variazioni di tensione, questa codifica assicura un buon bilanciamento elettrico a vantaggio dell'uniformità di carico sui circuiti e dell'affidabilità.

La conversione dei caratteri da 8 a 10 bit lascia libere diverse combinazioni di bit, che sono utilizzate per controllare il flusso dei dati, delimitare i pacchetti, eseguire controlli di errore e altri usi speciali.

I segnali sono di tipo differenziale, sono cioè trasmessi come differenze di tensione tra due fili (una coppia in trasmissione e una in ricezione), così da eliminare il rumore elettrico comune ai due conduttori.

La codifica è di tipo NRZ (Non Return to Zero): tra i due fili di ogni coppia c'è sempre 0,5V di differenza e i dati sono trasmessi scambiando le polarità; quando un filo è a +0,25 V, l'altro è a -0,25V e viceversa.

Alimentazione
Nel progetto del Serial ATA, un hard disk dovrebbe avere due connettori affiancati: quello del segnale, a sette piedini, e quello dell'alimentazione a 15 piedini.

Questi ultimi comprendono tre pin per 5 V, tre per 12 V, tre (di uso opzionale) per 3,3 V e sei per la terra.

In realtà i produttori non sono affatto entusiasti di fornire anche il 3,3 V, quindi spesso si usano cavetti di conversione dai quattro poli tradizionali (5V, 12 V e due di terra) ai 15 piedini oppure si possono continuare a usare i vecchi cavetti a quattro poli con i drive che presentano sia il vecchio sia il nuovo connettore di alimentazione.

Gli alimentatori di produzione recente forniscono comunque i cavetti con i connettori a 15 piedini. Con tre piedini per ciascun livello di tensione, nonostante le piccole dimensioni, il nuovo connettore assicura fino a 4,5 ampere di corrente per ogni tensione, sufficienti anche per il più famelico dei drive.

sabato 18 luglio 2009

Messanger Live: Aprire le notifiche mail con il browser predefinito

Avendo Firefox come Browser predefinito, di solito si preferisce che tutte le applicazioni che usano internet si appoggino a questo per andare in rete.

Molti conoscerannno Messenger Live, il suo problema è che se si vuole accedere alle notifiche mail attraverso la finestra del messenger ci si trova indirizzati a Internet Explorer, con i noti problemi che puo' dare questo browser.

Il messenger propone l'installazione di Messenger Plus Live, per gli addon, invece è meno conosciuto StuffPlug3, giovane cugino del primo, anch’esso infatti cerca di aggiungere nuove funzionalità ad Msn.

Installando prima il primo e poi il secondo si risolve il problema e si riesce finalmente ad aprire le notifiche di mail da Msn con Firefox o qualsiasi altro browser si abbia come predefinito.

Di default infatti StuffPlug3 ha già impostato di aprire ogni link con il browser predefinito. Nel caso vi pentite e volete tornare ad Internet Explorer, prima di disanstallarlo potete sempre disabilitare “Open URL in default browser”, che trovate tra le opzioni generali!

mercoledì 1 luglio 2009

Vivere i propri dati online

Avete mai pensato a quale sarà la prossima evoluzione dei computer. C'è chi dice che il futuro (che è già fra noi) sarà l'utilizzo dei computer come terminali via internet, vista la possibilità di connessioni sempre piu' veloci e la possibilità di restare sempre connessi alla rete, c'è chi propone dei Desktop virtuali dove si puo' lavorare direttamente online.
Leggere la propria posta ormai è una cosa normale, ogni provider di posta lo propone, ma la novità è la possibilità di poter gestire uno spazio virtuale dove poter caricare i propri documenti le proprie fotografie, ascoltare la propria musica. Ma anche gestire la propria attività con tutti gli appuntamenti della giornata e della settimana.
Google con Gmail ofre un servizio simile, la posta con un ottimo spazio gestibile come archivio dati, ma Gmail è anche un word processor per scrivere documenti, ma anche foglio elettronico, presentazioni, documenti in formato PDF, con ottime prestazioni, buone formattazioni.
E Google da anche la possibilità di caricare online le proprie foto, gestite da PiCasa, caricare fino ad 1 GB gratuitamente, gestire un'infinità di album con possibilità di renderli pubblici, visibili a tutti o privati, visibili solo a chi si vuole.
C'è ancora il calendario, un buon piano settimanale o mensile dove segnare e condividere i propri appuntamenti di ogni giorno, con avviso via mail o avviso direttamente sul proprio desktop.
Oltre tutto questo ci sono altri programmi che gestiti online permettono una gestione leggera del proprio computer.

Oltre a Google altri propongono una simile idea, tra questi Ulteo, una desktop online in stile GNU/Linux, in ambiente JAVA, con OpenOffice online, del tutto simile a quello usato nel proprio PC, anche qui la possibilità di caricare documenti, quali foto, musica e gestire la propria attività da qualunque posto.

Anche Microsoft sta seguendo la stessa strada, con Office Suite Online, Windows Live.
Questo cosa produce, da una linea di quello che saranno i futuri PC, piu' leggeri, non molto potenti, probabilemnte si abbandoneranno i lettori DVD, allegerendo e dando piu' autonomia ai portatili, che se poi la teconologia SSD andrà avanti come si spera, avranno ancor piu' autonomia di batteria, potendoli gestire in ogni situazione, in viaggio, nei parchi con la rete wireless.
Per cui la strada dell'estrema gestione delle proprie risorse online sembra segnata, ma ad una cosa bisogna prestare attenzione, teniamo sempre una copia di backup di quello che lasciamo in rete, caso mai la rete se ne andasse...
Arrivederci

venerdì 26 giugno 2009

Il computer. quanta polvere?

Il computer, forse non sembra, ma raccoglie tanta polvere. Se poi vive in un ambiente che produce tanta polvere bisogna pensare a dargli aria pulita.
Cosa vuol dire? Voul dire che se soffoca nella polvere bisogna levarla per evitare i surriscaldamenti.
Proprio con l'estate bisogna correre ai ripari, proprio quando il computer si trova nella condizione piu' critica per il caldo.
Il computer fisso si crede soffra meno queste condizioni. Pero' basta guardare la griglia dell'alimentatore per rendersi conto che con un po' di pulizia potrebbe funzionare meglio.
Con un pennello, ma anche con un aspirapolvere a bassa potenza, si possono fare miracoli, staccando la presa di corrente, e tutti i cavi che si collegano alla macchina, si puo' aprire lo sportello laterale, basta pennellare o aspirare via la polvere, dalla base, da ogni componente interno. Se si riesce anche dall'alimentatore, non occorre smontarlo, almeno che non sia messo in condizioni pietose.
Già, avendo fatto questa semplice operazione, sicuramente va meglio e sopporta meglio il calore ambientale.
Anche la tastiera e il monitor vanno puliti ogni tanto, per la tstiera va bene l'aspirapolvere, sempre a bassa velocità, per estrarre da sotto i tasti ogni impurutà. Ma dopo con un panno pulito umido di sola acqua si puo' provare a ripulire i tasti dal sudore di ore di scrittura. Anche il monitor si pulisce con un panno pulito umido con sola acqua, senza nessuna aggiunta di prodotti per la pulizia, basta asciugare poi con un altro panno pulito.

Discorso diverso è per i portatili, molto piu' delicati, viti e vitine da staccare, parti delicate da scoprire e da pulire con moltissima attenzione. Lavoro che consiglio lascira fare a specialisti.

Una cosa molto importante se si vive in un ambiente polveroso è di coprire il proprio computer quando non si usa, sarebbe meglio coprirlo la sera quando lo si spegne.
Ma cosa molto importante è che il computer non è un tovagliolo, non si puo' mangiare sulla tastiera, o sopra il portatile. Evitare assolutaemnte calda (caffè) o bibite gassate (tutte le cole sono pericolosissime) basta solo dello zucchero sulle parti sotto la tastiera per rovinarla irrimedibilmente. Se dovete mangiare, è meglio spostarsi in un altro posto.

Arriva il caldo, le belle giornate di sole, se è possibile approfittatene, se proprio non potene fare a meno portatevi il vostro portatile nei prati sotto gli alberi... ma attenzione a non sporcarlo .

giovedì 18 giugno 2009

Boicottiamo i DVD blu-ray

Boicottiamo i DVD blu-ray, sono un limite alla nostra libertà , leggi.
Perchè dobbiamo sottostare a queste leggi, non è per protezione anti pirateria, sono solo leggi ad hoc perprendere soldi da ogni cosa che facciamo....
Consumatori, apriamo gli occhi... è solo l'ultima fragatura.... impariamo a vivere la nostra tecnologia, non lasciamoci solo condizionare.

martedì 16 giugno 2009

Webcam Hercules Dualpix Exchange - compatibilità Ubuntu 9.04 al 100%

C'è poco da dire sull'installazione di questa webcam su Ubuntu 9.04.
L'attacchi alla presa USB del computer, vai su skype, opzioni, video, provi e va.
L'audio lo stesso, metti su audio in uscita direttamente il driver usato per il microfono della webcam: Hercule Dualpix, gli dai l'OK e tutto va a gonfie vele.
Provare per credere

Asus rinuncia a GNU/Linux

Leggo dal blog di Guiodic un post relativo ad Asus che ha rinunciato ad installare sui netbook GNU/Linux, peccato, pero' dice che gli utenti vogliono Windows. Peccato.
Un peccato davvero, perchè sarebbe stata davvero una grande opportunità, ma del resto si sa, l'utente medio di Windows ha una certa dose di masochismo.
A parte gli scherzi, chi vorrebbe provare sul proprio computer un sistema operativo davvero libero, che non si impalla, che non ha bisogno di antivirus.
La gente non ci crede che cosi' risolverebbe tanti problemi.
Ultima novità, ho attaccato a Ubuntu 9.04 una webcam che viene riconosciuta al primo colpo... senza bisogno di installare drives, solo selezionando successivamente su skype il microfono (audio uscita) della webcam. Si vede e si sente bene.
E c'è chi dice che Linux è difficle.
Meditate gente, meditate

giovedì 4 giugno 2009

Android il nuovo sistema operativo alternativo?

(fonte wikipedia)http://it.wikipedia.org/wiki/Android

Android

Da Wikipedia, l'enciclopedia libera.

Android è una piattaforma open source per dispositivi mobili[1][2], basata sul sistema operativo Linux e sviluppata dall'Open Handset Alliance.

La piattaforma è basata sul kernel Linux, usa il database SQLite, la libreria dedicata SGL per la grafica bidimensionale e supporta lo standard OpenGL ES 1.0 per la grafica tridimensionale[1]. Le applicazioni vengono eseguite tramite la Dalvik virtual machine, una Java virtual machine adattata per l'uso su dispositivi mobili. Android è fornito di una serie di applicazioni preinstallate: un browser, basato su WebKit, una rubrica e un calendario.


SDK


Il 12 novembre 2007 l'OHA ha rilasciato il software development kit (SDK) che include: gli strumenti di sviluppo, le librerie, un emulatore del dispositivo, la documentazione (in inglese), alcuni progetti di esempio, tutorial e altro. È installabile su qualsiasi computer x86 compatibile che usi come sistema operativo Windows XP, Vista, Mac OS X, dalla versione 10.4.8, o Linux. L' IDEEclipse[3], per cui è fornito un plug-in. ufficialmente supportato per lo sviluppo di applicazioni per Android è

L'SDK è stato aggiornato alla versione 1.1 il 9 febbraio 2009; questa nuova versione sostituisce la versione 1.0_r2 e mantiene la retro compatibilità con i sorgenti creati tramite le vecchie release dell'SDK ( 1.0_r1 e 1.0_r2 ) ed aggiunge nuove caratteristiche alle API.[4]

I dispositivi


Il primo dispositivo mobile dotato della piattaforma Android è il T-Mobile G1, prodotto dalla società taiwanese HTC e commercializzato dal carrier telefonico T-Mobile. Il prodotto è stato presentato il 23 Settembre a New York, mentre la data di uscita nel mercato è prevista per il 22 ottobre 2008. Le caratteristiche principali del dispositivo sono: tastiera QWERTY, schermo touchscreen da 3.2 pollici con risoluzione di 320x480 pixel, supporto per la connettività 3G UMTS/HSDPA a 7,2 Mbps, 192 MB di RAM e 256 MB di memoria flash.

Il prezzo di lancio è 179 $ negli Stati Uniti , con obbligo di sottoscrizione ad un contratto biennale con il carrier T-Mobile, mentre in Italia il prezzo è di 450 € senza contratto. Il dispositivo è stato inzialmente distribuito negli USA il 22 ottobre 2008 e nel Regno Unito il 30 dello stesso mese. Entro la fine 2009 nuovi dispositivi assemblati da altre case produttrici.

Il CEO di Google ha inoltre ribadito che Android è adattabile a qualsiasi telefono cellulare, e una nutrita schiera di appassionati sta tentando già il porting della piattaforma su dispositivi non ufficialmente supportati e con sistema operativo diverso (telefoni HTC riescono attualmente ad effettuare telefonate, navigare su internet e inviare messaggi grazie ad Android).

Concorso a premi [modifica]

Al fine di favorire lo sviluppo di applicazioni per la piattaforma l'azienda GoogleGoogle e la somma dei premi è di 10 milioni di dollari. Dal concorso risultano esclusi i programmatori residenti a Cuba, Iran, Siria, Nord Corea, Sudan, Burma (Myanmar), Quebec e Italia.[5] Le nazioni sono state escluse per adempire alla legislazione statunitense contro il terrorismo o per impedimenti burocratici locali. L'Italia risulta esclusa per via della legislazione locale sulle vincite a premi sebbene la sua esclusione sia ancora in discussione.[6] ha indetto un concorso a premi legato allo sviluppo di applicazioni per Android. Il concorso a premi assegnerà una serie di premi e incentivi alle applicazioni, la scelta della applicazioni vincenti verrà effettuata internamente da

Android arriva in Italia [modifica]

il primo telefonino con Android venduto in Italia è stato Htc Dream con l'operatore mobile TIM al prezzo di 429 € senza contratto oppure a un prezzo minore con contratto. In un primo momento il dispositivo è stato privato di alcune funzionalità da parte della TIM stessa anche se poi con un aggiornamento il problema è stato risolto. A seguire anche Vodafone ha venduto il telefonino. Il secondo "Googlephone" nato dalla collaborazione tra Google, HTC e Vodafone è HTC Magic, commercializzato dal 5 maggio da Vodafone e dal 1 maggio in colorazione nera e poi anche bianca. Entrambi gli operatori lo vendono a 450 € ma Vodafone include una micro sd da 8 GB mentre TIM una da 1 GB, quest'ultima inoltre include nel dispositivo la versione di Android 1.5 di HTC e non di Google.

Critiche e polemiche [modifica]

ComputerWorld ha riportato in un articolo che le condizioni d'uso di Android e dello store delle applicazioni prevedono che "in caso che un qualsiasi prodotto violi l'accordo di distribuzione con gli sviluppatori, Google si riserva il diritto di rimuoverle da remoto su ogni dispositivo a propria discrezione".[7][8] Successivamente un team di sviluppatori si son visti rigettare un'applicazione regolarmente inserita nell'Android Market. L'applicazione in questione, "WiFi Tether for Root Users", è dedicata al tethering (permette ai dispositivi di funzionare come veri e propri router WiFi per girare connettività su altri apparecchi). La motivazione è che T-Mobile, primo carrier ufficiale di Android, vieta il tethering e quindi le applicazioni ad esso dedicate creano un conflitto di interessi. Le notizie hanno scatenato pesanti polemiche tra gli utenti, indignati dalla poca flessibilità dimostrata da Google che fa pensare che il sistema tanto sbandierato come "open" in realtà non lo sia poi così tanto.

Note [modifica]

  1. ^ a b What is Andorid? da http://developer.android.com
  2. ^ 5 Reasons Why Android May Take Half the Netbook Market
  3. ^ In other IDEs
  4. ^ Rilasciato SDK Android 1.1
  5. ^ Concorso Android, Google cancella l'Italia
  6. ^ Android in Italia, Google ci pensa troppo? 16 novembre 2007
  7. ^ Google cancella da remoto applicativi su Android 17 ottobre 2008
  8. ^ Google: Android non è un router 02 aprile 2009


Ovunque Android è sfida a Microsoft

(da La Repubblica 04.06.09)

Il sistema operativo di Google open source sui computer di Acer, e presto anche sugli smartphone e sui pc low cost di altre aziende di ALESSANDRO LONGO

I servizi e la filosofia di Google stanno mettendo radici ovunque, nell'informatica e nell'elettronica di consumo, e il prossimo passo sarà conquistare il cuore stesso dei pc: il sistema operativo. La sfida a Windows di Microsoft arriva così all'estremo.

Acer ieri ha annunciato il primo computer di massa che utilizza Android, il sistema operativo open source ideato da Google. Uscirà entro settembre e sarà un netbook, un pc molto economico e leggero, della gamma Aspire One. Acer non ha ancora annunciato il prezzo, ma aggiunge che sarà più economico degli attuali Aspire One. Secondo alcuni analisti di settore (come quelli di Ovum), dovrebbe costare intorno ai 200 dollari.

Monterà sia Android sia Windows Xp, permettendo agli utenti di passare da uno all'altro. Acer non è la sola a puntare su Android nei pc, anche se questo è il primo annuncio ufficiale da parte di uno dei principali produttori di pc. Secondo voci di corridoio, anche Dell si sta preparando a lanciare un pc con Android, mentre HP sta facendo test su alcuni modelli. Un pc basato solo su Android è in arrivo anche da Skytone, un produttore cinese.

Del resto, Android è gratis, mentre un produttore deve pagare a Microsoft 20 dollari ogni volta che monta Windows Xp su un pc. "Ci aspettiamo che Android occupi un mercato di netbook molto economici, a circa 200 euro; non quelli di livello più alto, a 400 euro, dove per ora Windows Xp domina e dopo sarà terra di conquista di Windows 7, successore di Vista", spiega a Repubblica. it Laurent Lachal, analista di Ovum.

Android sbarcherà su vari prodotti: sui Mid (Mobile internet device), computer tavoletta basati su una piattaforma Intel. "In generale, offriranno agli utenti un'interfaccia più semplice, più simile a quella di un pc, e faranno attecchire i touchscreen anche nel mondo pc economici", dice Lachal. Adesso ad avere schermi touch, simili a quello dell'iPhone, sono solo computer di fascia medio-alta.

Android si diffonderà soprattutto sui cellulari intelligenti (smartphone). Google ha annunciato che ci saranno entro fine anno una ventina di nuovi cellulari con Android. Per ora ci sono solo quelli di Htc (offerti in Italia da Tim e Vodafone), ma ci lavorando anche Motorola, Samsung, Acer, tra gli altri. Sono tutti touchscreen e ottimizzati per la navigazione internet e l'uso di applicazioni web (come quelle Google, ma non solo).

Secondo Strategy Analytics, le vendite di cellulari Android cresceranno del 900 per cento nel 2009, anno quindi del loro decollo effettivo. Google sarà quindi una spina nel fianco di Microsoft in nuovi promettenti mercati. Quello degli smartphone crescerà del 18,7 per cento (per unità vendute) nel 2009. Sarà quindi come un salvagente per il pericolante mercato cellulari, che è calato del 9,1 per cento nel 2008 (e ancora di più nel primo trimestre 2009 rispetto al primo del 2008). Qui Microsoft si batte da anni con il suo sistema Windows Mobile, che ancora però non è riuscito a farsi apprezzare dagli utenti non business.

La quota di mercato di Android, secondo Ovum, supererà quella di Windows Mobile entro il 2014, anno in cui sarà intorno al 18 per cento. Ruberà quote anche al sistema più diffuso sui cellulari, il Symbian di Nokia, il quale resterà però leader, con il 43 per cento nel 2014, contro l'attuale 58 per cento.

È del resto un momento propizio per i sistemi open source in generale, nei dispositivi dell'elettronica di consumo. Intel, il principale produttore di chip al mondo, a maggio ha annunciato la nuova versione dei sistema Moblin (basato su Linux), che sarà a bordo di vari dispositivi, come i Mid. Punti di forza dei sistemi open source, rispetto alle attuali versioni di Windows, sono il costo nullo di licenza, il fatto di essere una piattaforma aperta (il che incoraggia l'impegno della community di sviluppatori e quindi l'arrivo di tante applicazioni), e la leggerezza del sistema. Tutti aspetti che facilitano la diffusione di questi sistemi su dispositivi meno potenti (e più mobili) dei pc tradizionali.

Il momento è ideale per scommettere su queste alternative, per almeno due motivi. La crisi economica rende più interessanti i pc low cost. Il fenomeno cosiddetto della "consumerizzazione dell'informatica" (sua diffusione presso tutte le fasce della popolazione) fa da sprone a prodotti diversi (più semplici) dai computer tradizionali e che sono a cavallo con il mondo dell'elettronica di consumo (smartphone, netbook, Mid).
(3 giugno 2009

mercoledì 20 maggio 2009

C MOS, resettare il Bios

C'è bisogno di resettare il Bios della propria macchina.
Bisogna azzerare il C Mos, ogni scheda madre ha dei Jumper che permettono questa operazione. Attenzione pero' che è un'operazione molto delicata, bisogna leggere cosa dice il manuale della scheda stessa.
In genere pero' basta spostare uno dei jumper per una decina di secondi, a computer spento e cavo della rete elettrica staccato.
Con questa modifica si resetta il Bios riportandolo alle condizioni di fabbrica, in teoria si toglie anche l'eventuale password al Bios inserita e dimenticata. Alcune schede madri hanno un altro jumper per compiere questo passo, altre schede non hanno nessun jumper.
Ma si puo' lo stesso resettare il bios. Si', tolgiendo la batteria (sempre a computer spento e scollegato dalla rete elettrica) e facendo ponte con un cacciavite tra il polo positivo e quello negativo dei contatti dove viene inserita la piletta. Operazione molto delicata da fare assolutamente a computer spento, ma completamente spento.
Se avete dei dubbi sulla vostra capacità nel farlo ricorrete assolutamente ad un informatico.

mercoledì 29 aprile 2009

audio windows e skype

capita spesso che l'audio di windows vista e skype non vadano d'accordo.
Vediamo come si puo' intervenire per sistemare la cosa, bisognerà fare alcune prove.

1. provare il test audio di skype, il microfono va, si sente la voce registrata... non si sente la voce?

2. controllare che il microfono si acollegato, che i driver siano quelli giusti, eventualemnte aggiornarli o reinstallarli dal cd del microfono stesso (vedi microfono webcam)

pero' poi quando si contatta un amico ci si trova che si sente a scatti

2. controllare il volume del microfono sul mixer di windows vada e corrisponda al microfono che si sta usando, esempio il microfono della webcam, o quello della cuffia con microfono... andare sul pannello di controllo cliccare su audio, cliccare su registrazione, rendere inattivo qualsiasi altro tipo di microfono, in modo da vedere la spunta verde sul microfono che si sta usando

3. regolazione del volume del microfono, si dovrebbe regolare il volume in una posizione intermedia, leggermente spostata verso l'alto, circa un 55% o 60%, riprovare il test di skype.
regolare manualmente anche il volume su skype, andare su strumenti di skype, opzioni, configurazione audio. Togliere la spunta per la regolazione automatica e alzare di una o due tacche la regolazione. Rimettere la spunta per la reglazione automatica.

Provare con una telefonata se il proprio corrispondente sente tutto quello che dite, senza che ci sino rumori di ritorno, fischi, echi. Riprovare finchè non si trova la configurazione adeguata.

Ubuntu 9.04

E' uscita la nuova realese di Ubuntu, la 9.04 Jaunty Jackalope, per scaricarla clikka qui e sarai indirizzato direttamente al sito ufficiale italiano di Ubuntu.
E' piu' veloce, tradotta in italiano, con molti programmi già pronti per l'uso.

domenica 19 aprile 2009

quali programmi usare per Windows

Com'è noto Microsoft Windows Vista ha pochi programmi quando si accede per la prima volta, quindi per utilizzare il computer effetivamente bisogna caricare altri programmi, altri strumenti che permettono l'utilizzo secondo i propri bisogni.
Quando si effettua il primo accesso a Windows, dopo aver fatto rurri gli aggiornamenti, si puo' già andare in internet con Internet Explorer, o ascoltare musica sia su CD che su mp3 con Media Player, vedere DVD, è già protetto con il Firewall di Windows, ma poco altro a meno di non attivare i programmi come l'Office e l'antivirus compreso, che peré dopo generalmente 60 giorni si disattivano a meno di acquistare la licenza.
Premettendo che a me non piace assolutamente consigliare programmi scaricati illegalmente, o comunque installare programmi senza regolare licenza. Vedremo come si puo' avere un computer adatto ad essere usato come ottima scrivania, usandolo anche per visualizzare film che non siano i DVD.
Prima di tutto, un ottimo programma per la video scrittura e la tenuta di dati, OpenOffice , che è un programma che sostituisce degnamente la suite Office di Microsoft, con funzionalità superiori al programma della casa di Redmond, poi accoppiandolo con l'ottimo Thunderbird si ottengono anche le funzionalità di MS Outlook, anzi si porta anche una maggiore sicurezza al proprio computer, visto che se ben istruito protegge anche dallo spam.
Per vedere i film DiVX, ma anche riprodurre DVD, c'è un altro ottimo programma che si chiama VLC , completo dei codecs necessari per godersi ogni buon film, puo' essere usato in alternativa di Windows Media Player, ma il media player pué essere usato ancora per la musica, senza particolari problemi, anche se alcuni formati non li legge.
Ascoltate spesso i file OGG, allora conviene scaricare anche Winamp, il buon vecchio programma, sempre valido e sempre free.
Quindi, ora abbiamo un computer che esegue le basilari operazioni che buona parte degli utenti vogliono compiere.
Aggiungerei anche Firefox come browser alternativo a Internet Explorer, in quanto consente una maggiore sicurezza, è piu' semplce da usare, permette di organizzare in modo piu' evidente i proprio segnalibri preferiti, ha un sistema di blocco dei popup meno invasivo e piu' efficace.
Ultimo aspetto non meno importante riguarda proprio la sicurezza, prodotto free per gli utenti casalinghi che copra bene le esigenze di protezione dai virus, vedrei senz'altro Avast Antivirus come controllore della sicurezza.
Poi a seconda delle esigenze si possono aggiugere altri programmi, ma questo sarà spunto per altri post.

ps: spero si notino gli agganci ai link sui vari prodotti consigliati, da questi si possono trovare ulteriori notizie sui programmi e si possono anche scaricare legalmente. Buon divertimento.