href="http://posterous.com"> da site_name (())
sabato 24 luglio 2010
SOFTWERLAND: Www.1337x.orG | Torrent | Weaponizing Cultural Viruses - 26c3 - hacking [MP4-ENG]
href="http://posterous.com"> da site_name (())
Mongolian Racer on Vimeo
href="http://posterous.com"> da site_name (())
Www.1337x.orG | Torrent | Weaponizing Cultural Viruses - 26c3 - hacking [MP4-ENG]
Cosa significa combattere una guerra culturale? Come si propaga la cultura nella popolazione? Cosa e' un meme? E perche' alcuni meme culturali sono piu' virulenti di altri? Con la monocultura corporativa capitalista che sempre piu' afferma la sua egemonia culturale, e' vitale che gli individui diventino piu' esperti nell'opporvi resistenza.
In un mondo iper-connesso, il piu' potente vettore di resistenza e' quello della memetica, l'unita' centrale della "belief" culturale.
Una guerra di cultura e', fondamentalmente, una guerra memetica.
Per questo i moderni rivoluzionari devono imparare a costruire intenzionalmente memi che non solo possano sopravvivere in competizione con quelli della cultura dominante, ma "thrive". Gli Hackers, gia' impegnati nell'identificare e "leveraging" le vulnerabilita' nei sistemi informatici, sono i candidati ideali per identificare e sfruttare le vulnerabilita' memetiche dei sistemi culturali.
Questa lettura esplorera' l'ingegneria virale memetica come meccanismo per un cambio culturale. Nello specifico, come tali virus culturali possono essere armati in maniera piu' effettiva confezionando il loro contenuto non solo per massimizzare il tasso di infezione, ma per durare ed integrarsi. Questa conversione del meme trasmesso in azione di massa e' l'ambizione primaria delle memetiche rivoluzionarie.
Viene presentata un' introduzione base ai memes e alla teoria memetica. Verra' chiarita la differenza fra un classico meme di Dawkins/Blackmore ed un meme di Internet, e viene esplorata la loro relazione nel contesto della resistenza memetica. Verra' introdotta anche la virologia base, che verra' usata come la metafora analitica primaria (ma non l'unica).
I meccanismi chiave della trasmissione memetica verranno identificati e verra' introdotto un modello semplificato di valutazione della memetica. Vengono discussi vettori forti e deboli della infezione memetica, cosiccome i concetti di progenitori memetici e domain crossover.
Vengono analizzati i sistemi immuni alla memetica, e vengono esplorati potenziali exploits. Vengono introdotti i punti di infezione - luoghi in cui piccole spinte hanno largo impatto, assieme ai metodi per la loro identificazione. Viene spiegata la necesita' di meme-splitting, e vengono identificato i candidati memetici primari per "metastasizing hacker/maker culture". Vengono discussi gli immediati benefici ed i vantaggi a lungo termine di tale sforzo. Viene esplorato l'uso dei sistemi di comunicazione digitale nella guerriglia memetica, sia come testbeds (e.g., Twitter come memetic petri dish memetico) che come vettori di infezione.
Viene dimostrato il potenziale della resistenza memetica contro le strutture di potere monolitico come il corporatismo globale ed il fondamentalismo religioso. Viene discussa la semantica della resistenza memetica, in particolare nel contesto dei sistemi della popaganda contemporanea, come la "Guerra Globale al Terrore" degli Usa. Vengono citati illuminanti riferimenti storici e culturali, aneddoti umoristici
[...]
venerdì 23 luglio 2010
donna ippopotamo
href="http://posterous.com"> da site_name (())
SOFTWERLAND: Technology | EcoMotors
href="http://posterous.com"> da site_name (())
giovedì 22 luglio 2010
mercoledì 21 luglio 2010
DIVERSITY OF OUR HUMAN RACE MAKES THIS PLANET BEAUTIFUL
href="http://posterous.com"> da site_name (())
Kleptones - Come Again (Beatles vs Rare Earth vs Beaties vs Daft Punk vs Cypress Hill vs Boston) Video by Crumbs Chief on Vimeo
href="http://posterous.com"> da site_name (())
Kleptones - Come Again (Beatles vs Rare Earth vs Beaties vs Daft Punk vs Cypress Hill vs Boston) Video by Crumbs Chief on Vimeo
Kleptones - Come Again (Beatles vs Rare Earth vs Beaties vs Daft Punk vs Cypress Hill vs Boston) Video by Crumbs Chief from The Videotones on Vimeo.
vs Boston) Video by Crumbs Chief on Vimeomartedì 20 luglio 2010
Informatica per le scienze umane - Prof. Dino Buzzetti
Mon 19 Jul 2010
La metafora della mente come un computer nella psicologia cognitiva
Posted by Stefano Zuccato under intelligenza artificiale , comunicazione , informatica , teoria dei calcolatori
No CommentsLa psicologia cognitiva fu una delle principali correnti psicologiche degli anni ’60 e ’70 sviluppatasi a partire dalla fine degli anni ‘50. Alcuni aspetti che evidenziano come la prospettiva cognitiva si distinse dalla principale corrente psicologia precedente, il comportamentismo, sono l‘interesse a conoscere le strutture e le funzioni del sistema nervoso (che il comportamentismo concepiva come una “scatola nera“) e quindi il considerare il comportamento come il risultato di modelli mentali che elaborano l’informazione esterna (e interna) e non semplicemente come la risposta ad uno stimolo. Il principio della psicologia cognitiva che intendo qui approfondire è quello che sosteneva che sia la mente che il calcolatore operassero fondandosi su processi e regole simili e quindi che l’elaborazione umana dell’informazione potesse essere simulata con un computer.
Nel libro Psicologia cognitiva del 1967, Urlic Neisser esplicò l’esistenza di un orientamento che di fatto era già molto seguito. Il cognitivismo veniva definito come un indirizzo di ricerca frutto della convergenza di indagini teoriche e sperimentali svolte in ambiti disciplinari diversi, quali la psicologia sperimentale, la teoria dell’informazione e la cibernetica, la linguistica e le neuroscienze. Pressoché tutti i ricercatori degli anni ’60 e ’70, concependo i processi cognitivi come delle unità di elaborazione dell’informazione, accolsero la metafora della mente come un calcolatore e a causa di questo fu posta poca attenzione all’influenza dei contesti sociali, storici e culturali sullo sviluppo cognitivo. Infatti già nella seconda metà degli anni ‘70 i principi della psicologia cognitiva furono sottoposti ad una revisione critica che sottolineava tra l’altro l’esigenza di studiare la mente umana in condizioni naturali (approccio ecologico) e non in laboratorio.Per capire meglio come la psicologia cognitiva arrivò a pensare il cervello come una macchina è necessario tornare indietro e, partendo dal lavoro del matematico Alan M. Turing, porre attenzione alla storia delle discipline che contribuirono alla sua formazione. Con i suoi lavori degli anni ‘30 Turing gettò le basi della psicologia cognitiva, della logica dei computer così come la conosciamo oggi e dell’intelligenza artificiale. Teorizzò una “macchina” (composta da un nastro organizzato in celle caratterizzabili a due stati, da una testina in grado di modificare e memorizzare lo stato del nastro in ogni momento e da una unità di controllo col compito di muovere la testina) capace di comporre ed eseguire una serie infinita di programmi mediante il solo codice binario. L’efficienza di questa macchina virtuale poteva essere misurata mediante un test (“test di Turing”) che sostanzialmente confrontava il prodotto cognitivo di una macchina con il prodotto cognitivo del cervello. Infatti il test consisteva nel far svolgere lo stesso problema sia alla macchina che ad un essere umano e se entrambi davano lo stesso risultato allora si poteva dire che la macchina aveva superato il test. A metà degli anni ’40 John von Neumann, inventore del dispositivo “di applicabilità generale” (general purpose, la cui architettura è alla base di gran parte dei calcolatori da allora progettati), pensò che il suo dispositivo poteva essere un’effettiva realizzazione della macchina di Turing; infatti la macchina di von Neumann era capace di memorizzare dati ed istruzioni, di elaborare i dati mediante le istruzioni e poi di riscrive i dati elaborati in memoria, tutto questo su un medesimo supporto.
Tuttavia l’analogia tra cervello e calcolatore fu resa esplicita e messa in evidenza dalla cibernetica, in particolare in due lavori del 1943. L’articolo di Arturo Rosenblueth, Norbert Wiener e Julian H. Bigelow, intitolato Comportamento, scopo e teleologia, unì il concetto di finalizzazione del comportamento a quello dei sistemi di autoregolazione e controllo per il conseguimento di uno scopo. Cioè mise in evidenza l’analogia tra questi sistemi artificiali basati sul feedback (ad esempio il termostato in un forno) e il comportamento proprio degli animali (e dell’uomo). L’articolo di Warren S. McCulloch e Walter H. Pitts, Un calcolo logico delle idee immanenti nell‘attività nervosa, invece rappresentò l’attività dei neuroni in termini di proposizioni logiche: la stessa logica che reggeva il funzionamento neuronale poteva essere alla base della logica del funzionamento di una macchina come il computer. Si ipotizzò quindi che entrambi gli elaboratori di informazione operassero mediante lo stesso codice binario. Nel 1948 Norbert Wiener pubblicò il libro Cybernetics con cui presentava la nuova scienza del “controllo e della comunicazione negli animali e nelle macchine”.
Questi studi si legavano alla “teoria dell‘informazione“, una branca dell’ingegneria applicata sviluppata da Claude E. Shannon nel 1948, secondo la quale le proprietà intrinseche di un messaggio trasmesso in un sistema, organico o artificiale, erano indipendenti dal sistema stesso, ovvero sosteneva che l’informazione avesse regole di trasmissione ed elaborazione che prescindono dal sistema di supporto e dal contenuto trasmesso. Il modello elaborato da Shannon prevedeva che un messaggio, per essere trasmesso da un mittente ad un destinatario, doveva prima venire codificato, poi attraversare un canale e in fine venire decodificato all’arrivo. Quindi, per trovare il modo più efficiente per trasmettere “informazione“ era necessario ridurre l’entropia del canale (disordine) e aumentarne l‘ordine codificando appropriatamente il messaggio. La teoria dell’informazione fornì allora il codice bit, abbreviazione di binaty digit (numero binario).Da questi studi iniziò ad emergere il cognitivismo e gli psicologi cominciarono ad assumere nuovi linguaggi per descrivere la mente umana. Primo fra tutti George A. Miller descrisse le modalità con cui l’individuo elabora l’informazione proprio con il linguaggio della teoria dell’informazione. Nel suo libro Piani e strutture del comportamento del 1960 , scritto assieme a Karl Pribram e Eugene Galanter, venne accentuato il carattere finalizzato dei processi mentali descrivendo l’azione come un comportamento strutturato e non come una semplice sequenza di risposte. Ovvero il comportamento umano fu visto come il prodotto di un’elaborazione dell’informazione per lo svolgimento di “piani”, organizzati gerarchicamente e utili alla soluzione di problemi. La struttura dei piani fu descritta da l’unità di monitoraggio TOTE (Test-Operate-Test-Exit) che si sviluppava in quattro fasi: una verifica da parte dell’individuo della situazione presente (test), un “operare” per rimuovere le eventuali incongruità con lo stato di cose desiderato, un altro test di controllo e in fine, se le incongruità erano state eliminate, la conclusione del programma (exit). Per arrivare alla descrizione dell’unità TOTE fu evidentemente fondamentale la nozione di feedback sviluppata dalla cibernetica.
Quindi, quando Neisser scrisse Psicologia cognitiva, la mente era ormai concepita come un elaboratore di informazione con un’organizzazione prefissata di tipo sequenziale e con una capacità limitata di elaborazione. Secondo Neisser il calcolatore consentiva di descrivere in maniera efficace le operazioni svolte dall’elaboratore umano e la metafora della mente come computer era basata sul alcune nozioni quali: informazione, canale, sequenza di trasmissione ed elaborazione dell’informazione, strutture input e output dell’informazione dall’elaboratore, strutture di memoria. Le descrizioni dei processi cognitivi fatte in quegli anni si basarono su queste nozioni e si servirono di diagrammi di flusso formati da unità (“scatole“), aventi ciascuna compiti definiti, che descrivevano, in modo sequenziale e unidirezionale, lo scorrere dell’informazione nel tempo secondo la concezione dell‘elaborazione umana dell‘informazione. A sostegno della propria tesi Neisser sostenne che “il compito di uno psicologo che cerca di comprendere i processi cognitivi dell’uomo è analogo a quello di un tecnico che tenti di scoprire come è stato programmato un computer” perché “un programma non è una macchina; esso è una serie di istruzioni […].” La psicologia cognitiva quindi intendeva conoscere, per così dire, il modo in cui era programmato l’uomo studiando i “programmi” mentali.
Alla metà degli anni ‘70 ebbe inizio un’opera di revisione teorica e metodologica all’interno del cognitivismo. Fu sempre Neisser, nel libro Cognizione e realtà. Principi e implicazioni della psicologia cognitiva (1976), a riassumere gli aspetti problematici emersi nella letteratura della psicologia cognitiva. Riferendosi in particolar modo al lavoro di James J. Gibson, venne criticato soprattutto la proliferazione di nuove tecniche e paradigmi sperimentali senza alcuna validità ecologica e non inerenti alla vita quotidiana. In più la metafora tra mente e computer venne ridimensionata. Neisser continuò a sostenere che, fra le cause della nascita della psicologia cognitiva, “la più importante era probabilmente connessa con l’avvento del calcolatore, […] perché le attività stesse del calcolatore sembravano in qualche maniera affini ai processi cognitivi. I calcolatori accettano le informazioni, manipolano i simboli, immagazzinano i dati nella “memoria” e li recuperano quando occorre […]. Non era tanto importante che facessero queste operazioni proprio come fanno gli uomini, ma era importante che lo facessero”; ma il problema fu che questa affinità portò a pensasse alla mente come una macchina auto-dotata di sistemi di elaborazione dell’informazione e indipendente dall’ambiente, e non come un prodotto del cervello e del resto del corpo. Così il nuovo approccio, abbandonando la concezione delle “scatole” che elaborano l’informazione, mise in evidenza il carattere funzionale della mente pensandola come incorporata in un organismo in continua relazione con il mondo esterno e definendo l‘informazione come un flusso (non unidirezionale) determinato dai movimenti dell‘individuo nell‘ambiente. In questo contesto di riflessioni autocritiche e di nuove acquisizioni in discipline di confine si sviluppò il nuovo orientamento interdisciplinare della “scienza cognitiva”.In La nuova scienza della mente di Howard Gardner (1985), dove sono analizzati gli aspetti principali della scienza cognitiva, si sostiene che il riferimento al calcolatore sia comunque fondamentale perché, simulando i processi cognitivi, può rappresentare un modello di come funziona la mente anche se opera in modo differente. L’intelligenza artificiale, una delle discipline legate alla scienza cognitiva, fornisce i programmi simulatori di prestazioni cognitive umane e, quando questi programmi operano in modo indistinguibile da quello umano, viene detto che rappresentano un modello adeguato delle prestazioni umane. La scienza cognitiva dunque, per poter affermare questo, si basa sull’assunto che i processi cognitivi siano rappresentabili come un insieme di regole e simboli fra input e output; ma su questo aspetto non tutti gli studiosi sono d’accordo, e così negli anni ‘80 nacque il “connessionismo”. Questo approccio si presenta come un’alternativa ai modelli della simulazione simbolica ed ha come caratteristica principale il superamento della concezione di calcolatore alla von Neumann. Partendo dall’osservazione che una struttura come quella del computer, essendo differente da quella del cervello, non può simulare il prodotto della mente, ha elaborato un modello di simulazione basato sul funzionamento delle reti neurali dove l’elaborazione dell’informazione, che è costituita da elementi non simbolici e da connessioni fra questi elementi, avviene in parallelo su tutti gli “input” e produce un “output”. La ricerca contemporanea di origini cognitivistiche, abbandonata l’idea che la mente operi come un computer, è quindi orientata in parte secondo l’approccio, di stampo informazione, della scienza cognitiva, e in parte secondo l’approccio di tipo connessionista che ritiene che il funzionamento dei processi mentali non sia regolato da particolari regole o procedimenti. Secondo John Anderson questi due approcci potrebbero essere le due facce della stessa medaglia. Per così dire, i modelli informazioni potrebbero corrispondere al software cognitivo, mentre i sistemi connesionisti potrebbero corrispondere all’hardware soggiacente alle attività di pianificazione.
Bibliografia:
Benjafield John G., (1995), Psicologia dei processi cognitivi
Mecacci Luciano, (1992), Storia della psicologia del Novecento
Mecacci Luciano, (2001), Manuale di psicologia Generale
Mari Luca, Buonanno Giacomo, Donatella Sciuto, (2007), Informatica e cultura dell’informazione
Thu 1 Jul 2010
Un Internet fatto di “memes”
Posted by Paulo Fernando Levano under internet , comunicazione , rappresentazione della conoscenza , cyberspace , web e società
No CommentsLa parola “meme”, da quando é stata coniata (Dawkins, 1976) fino ai giorni nostri, sta ad indicare un modello di informazione che si trasmette “da solo” da un supporto (che può benissimo essere la nostra mente) a un altro supporto, in modo analogo alla trasmissione dell’informazione genetica. Infatti per Dawkins (che si dedica all’etologia), se l’unità di informazione genetica é il gene, allora l’unitá di informazione culturale é appunto il meme; questa unità può contenere dentro di sè qualunque tipo di informazione, a patto che ci sia un modo in cui essa possa auto-replicarsi. Tecnologie, credenze religiose, ma anche moda e persino melodie: tutte manifestazioni culturali che attraverso l’oralità, il discorso scritto o il gesto possono trasmettersi da generazione in generazione, suscettibili però ai meccanismi evolutivi di selezione (alcune cose ci vengono trasmesse e poi le dimentichiamo, alcune cose vengono dimenticate prima di venire trasmesse). Quindi, quando parliamo di meme, parliamo di comunicazione: e quando parliamo di comunicazione oggi meno che mai possiamo non considerare Internet e la WWW. Per prima cosa c’é da notare che nel processo di trasmissione, fondamentalmente chi dà non conosce chi riceve e viceversa; basta soltanto che il codice in uso sia quello più universale (e ciò si spiega dal fatto che un meme può replicarsi in un determinato contesto culturale, ma sul web entrano in gioco veramente tante persone, ognuna con le sue aspectus mundi). Facendo un’altra considerazione, negli esempi fatti all’inizio, possiamo vedere un primato del significato sul significante (lo scopo in questo caso é che il meme conservi il suo valore, e sono i mezzi che si adattano), ma su Internet il significante si impone sul significato (per dirla breve, bisogna dire una cosa nel modo giusto anzichè dire una cosa giusta): un esempio chiaro sono gli image macro, in cui si tratta di un’immagine con una scritta che delucida o capovolge il senso dell’immagine stessa, o viceversa. Finalmente, possiamo osservare che su Internet il tempo di vita di un meme é brevissimo; certamente nessuno ci impedisce di andare a ripescarli, ma per gli internauti il meme é un “inside joke” istantaneo, quasi come lo spartiacque fra il linguaggio della vita reale e il linguaggio on-line, e quest’ultimo non può mai essere statico: il “nuovo”, il “pivello”, si troverà sempre un corpus di dati sciolti, quasi messi a caso, e costantemente rinnovantesi, così come la quantità di “cose nuove” entrano nel web e rinnovano il patrimonio “meme”-etico. Non c’é dubbio ormai: questo decennio appena finito ha visto la costituzione di un linguaggio di utenti che riesce a collocare qualsiasi tipo di evento o idea al livello di fenomeno di internet, compatibilmente con la promessa di avverare la promessa fatta da Warhol nel ‘68: tutti avremo i nostri 15 minuti di fama.
Wed 30 Jun 2010
LA FRUIZIONE DEI TESTI DIGITALI DAL PUNTO DI VISTA DELL’ESTETICA
Posted by Manfrida Radharani under letteratura e computer
No CommentsL’uso e la diffusione di nuove tecnologie e strumenti per la produzione e condivisione di informazioni ha condizionato e rivoluzionato anche il linguaggio dell’arte e la modalita’ di esplicazione teorica dell’arte stessa.
Particolarmente interessante diviene la posizione del fruitore nei confronti delle opere d’arte creaate attraverso hardware,come per esempio nel caso delle scritture digitali relativamente a quella che puo'’ essere chiamata “letteratura elettronica”.Un esempio di letteratura elettronica e’ dato dalla poesia ipertestuale,dalla poesia cinetica,l’iper romanzo.
Con il loro carattere di intertestualita’,interattivita’,i testi digitali hanno del tutto modificato il rapporto opera-fruitore stravolgendo la posizione del lettore stesso.
Innanzitutto per poter accedere e fruire questo tipo di produzione artistica e’ necessario saper usare i dispositivi e le apparecchiature che ne permettono l’accesso e la condivisione in quanto veicoli di riproducibilita’ tecnica dei testi.
L’uso dei dispositivi digitali rende l’opera interattiva,molto diversa quindi dal testo a stampa che si dimostra statico.Fra il lettore e l’autore le distanze si assottigliano grazie alla componente interattiva che prevede,almeno in parte,la partecipazione del lettore alla costruzione del significato dell’opera,in alcuni casi scegliendo il percorso narrativo della propria lettura e commentando quanto letto,in altri intervenendo direttamente sul testo scegliendo lo svolgersi della trama.Lettore-autore si fondono scambiandosi spesso i ruoli e la costruzione dell’opera assume un senso collaborativo all’interno di una sorta di “comunita’ di scriventi” impregnando cosi’ la creazione artistica di un senso collettivo e di condivisione.
Non mancano le posizioni critiche,une sempio e’ dato dall’argomentazione estetica di Benjamin che,seppur non negail valore innovativo dell atecnica nella produzione artistica,ne evidenzia pero’ alcuni svantaggi teorici dovuti alla riproducibilita’ e alla diffusione di massa che intaccherebbero la dimensione individuale non permettendo la fruizione al singolo e percio’ non permetterebbero l’accesso alla dimensione piu’ profonda dell’arte.
Wed 30 Jun 2010
Xlink: possibilità di fruizione
Posted by Paola Piccioli under web , linguaggi di markup , web semantico , informatica , ipertesto , appunti del corso
No CommentsXLink è la nuova frontiera del link nel mondo di XML: elaborato dalla W3C e disponibile in due versioni (la 1.0, in circolazione dal 2000, e la 1.1, rilasciata nel 2001), permette di creare e descrivere link fra diverse risorse, come ad esempio file, immagini, documenti, programmi, risultati di ricerche, presenti sia all’interno dello stesso documento XML sia all’ esterno. I link possono essere sia unidirezionali sia bidirezionali, e sono in grado di sostenere strutture estremamente complesse, contenendo elementi che indicano remote resources, elementi che contengono local resources, elementi che specificano le regole degli arc traversal, ed elementi per specificare risorse leggibili per l’utente umano e titoli di arc. I link multi direzionali rendono possibile la relazione tra diverse risorse, che altrimenti dovrebbero essere salvate in diversi documenti; possono indicare regole per la “navigazione” (traversing) del link grazie ad una serie di elementi arc (cioè regole di navigazione tra risorse), per esempio può avere attributi di navigazione (“da” e “a”), di comportamento (“mostra” e “attua”) e semantici (“ruolo dell’arc” e “titolo”).
In questa immagine è possibile vedere, ad esempio, un link associato a cinque risorse e fornisce regole per navigare attraverso esse:
Il modello di “collegamento” di XML beneficia della complementarietà delle proprietà intrinseche di Xlink e Xpointers. Quest’ultimo fornisce gli strumenti per l’identificazione dei frammenti di risorse web, mentre Xlink provvede a quelli che raggruppano o raccolgono tali risorse in appropriati collegamenti.
Nonostante Xlink non sia stato ancora implementato in nessuno dei maggiori browser commerciali, il suo impatto sarà cruciale per le applicazioni XML del futuro prossimo. Il suo design estensibile e facile da imparare si dimostreranno un vantaggio man mano che la nuova generazione di applicazioni XML si svilupperà.
Sitografia:
http://www.w3.org/TR/xlink/
http://www.xml.com/pub/a/2000/09/xlink/index.html
http://www.wikipedia.org
Wed 30 Jun 2010
Una breve storia dei sintetizzatori sonori
Posted by Tommaso Michelini under tecnologia , multimedia , arte
No CommentsNegli ultimi sessant’anni di storia della musica, lo sviluppo delle tecnologie elettroniche ed informatiche ha rivoluzionato il modo in cui si distribuisce e si ascolta un brano - basti pensare al fenomeno del piccolo monopolio di iTunes ed iPod - ma anche i metodi con i quali l’artista registra e produce le proprie tracce.
Se nella musica degli anni ‘70 l’uso di strumenti elettronici era riservato a pochi grandi autori - se una volta accendendo la radio il suono sintetico era magia, oggi la gran parte delle produzioni di musica leggera fa uso quasi esclusivo di sintetizzatori e batterie elettroniche.
Vogliamo proporre in questa sede una breve storia degli strumenti elettronici, e in particolare dei sintetizzatori sonori: dai primi suoni generati da un circuito elettrico, per arrivare all’esplosione degli anni ‘80 e infine alla diffusione capillare che ha caratterizzato la scorsa decade.Il primo esempio di suono sintetico generato da un sistema elettromeccanico risale al 1896, quando l’inventore americano Thaddeus Cahill registra all’ufficio brevetti il principio di funzionamento di un apparato chiamato Telharmonium (Dinamofono). Lo strumento gargantuesco era azionato da dodici motori a vapore, ed era già polifonico – poteva emettere più di una singola nota allo stesso tempo – nonché dotato di tasti sensibili alla dinamica come il pianoforte.
Due decadi più tardi (ca. 1919) l’inventore russo Leon Theremin brevettò un ingegnoso sintetizzatore di suoni monofonico (i.e. in grado di emettere una sola nota per volta) su scala molto più piccola, che prese il suo cognome da lì in poi.
Il Theremin è un sintetizzatore che irradia attorno a sé un piccolo campo elettrico: due antenne poste ai lati del circuito elettrico percepiscono la vicinanza delle mani dello strumentista, che muovendole in aria modifica l’intonazione dell’onda emessa dal Theremin ed il suo volume.
Questo strumento è utilizzato tutt’oggi, e si distingue per l’eleganza nella gestualità del musicista e per la timbrica distinta che, seppure sintetica e spettrale, ricorda la voce di un soprano.In Europa si ricordano esperimenti analoghi come l’Ondes Martenot, del francese Maurice Martenot (1928) ed il Trautonium dei tedeschi Sala e Trautwien (1930).
Negli anni successivi alla Seconda Guerra Mondiale – durante la quale videro la luce i primi pianoforti elettrici, la cui timbrica e meccanica era più simile ad una chitarra elettrica che ad un piano – fu coniato il termine sintetizzatore per intendere uno strumento musicale automatico basato su oscillatori elettrici, ovvero generatori di onde elettriche.
Il vero padre del sintetizzatore come lo si intende oggi è Robert A. Moog, che nel 1964 inventa lo storico sintetizzatore modulare (Moog Modular): la grande intuizione di “Bob” Moog sta nell’unire i circuiti oscillatori ad una vera e propria tastiera da organo.
Il primo, storico disco prodotto interamente con questo strumento è lo “Switched-On Bach” di Wendy Carlos (1968), una reinterpretazione avveniristica di alcuni dei principali movimenti di J. S. Bach.
Con il passare alla storia del disco come primo esempio di registrazione di musica elettronica con sovraincisioni, la vendita di sistemi Moog aumenta rapidamente – seppure ancora riservata ai grandi studi di registrazione.Nel 1971, Robert Moog rilascia probabilmente il sintetizzatore più venduto e ricercato nella storia della musica: il MiniMoog Model D; poco più grande di una tastiera a tre ottave e mezzo, è il primo esempio di strumento elettronico compatto ed economico. La gamma di suoni offerta è limitata rispetto al Moog Modular, ma la vera portabilità ne fa uno strumento che entra a pieno titolo sul palco a fianco
Il MiniMoog entra di prepotenza nella cultura musicale dell’epoca, aprendo l’era del progressive rock con band quali Yes ed Emerson, Lake & Palmer – in Italia ne abbiamo una memorabile registrazione nelle “Impressioni di Settembre” della Premiata Forneria Marconi.Gli strumenti di Robert Moog finora riportati sono monofonici: la polifonia nei sintetizzatori viene introdotta da un “allievo” di Moog, il progettista elettronico Dave Smith, che fonda la compagnia Sequential Circuits.
Il primo sintetizzatore polifonico, Prophet-5, vede la luce nel 1978: la tecnologia elettronica era avanzata abbastanza perché fosse possibile distribuire le note suonate sulla tastiera su altrettante unità sonore, e produrre così accordi e trame musicali più complesse dallo stesso strumento.Gli anni ’80 vedono l’esplosione del mercato dei sintetizzatori: si diffondono i primi modelli davvero economici con il diminuire dei costi della tecnologia; è diffuso lo standard MIDI, un metodo di comunicazione per collegare sintetizzatori fra loro; la rivoluzione tecnologica dei calcolatori elettronici e dei circuiti integrati fa sì che la generazione dei suoni non avvenga più tramite circuiti oscillatori elettrici, ma per riproduzione ed elaborazione di frammenti sonori memorizzati all’interno del sintetizzatore, sempre più simile nelle sue componenti ad un computer specializzato per la musica.
Ad oggi, seppure le sonorità dei sintetizzatori vintage siano ricercate, gran parte della produzione avviene sul computer: i suoni sono generati da strumenti software completamente integrati nel sistema di registrazione. Così prendono forma gran parte dei successi che scalano le classifiche della musica leggera oggi.
SITOGRAFIA:
A Brief History of Synthesizers
Tue 29 Jun 2010
L’ “Elogio della pirateria”: un libro da leggere
Posted by Giacomo Zocca under hackers , internet , informatica , cyberspace , weblog (blog) , etica dell'informazione , web e società
1 CommentUn saluto a tutti i visitatori del blog di Informatica per le Scienze Umane del prof. Dino Buzzetti.
Con questo mio articolo vorrei divulgare a tutti voi il messaggio di protesta che ho avuto il privilegio di recepire dalla lettura del libro di Carlo Gubitosa “Elogio della Pirateria-Dal Corsaro Nero agli Hackers-Dieci storie di ribellioni creative” uscito nel 2005 con la prefazione di Paolo Attivissimo. Prima di iniziare la mia breve presentazione, ci tengo a precisare che il libro è facilmente scaricabile da vari siti internet grazie alla licenza “Creative Commons” con la quale è stato rilasciato: da come si può leggere sopra le note editoriali nella primissima pagina “questo libro è libero, e può essere riprodotto e distribuito, con ogni mezzo fisico, meccanico o elettronico, a condizione che la riproduzione del testo avvenga integralmente e senza modifiche, ad uso privato e a fini non commerciali”.Il libro racconta le esperienze di quelle persone che la società odierna definisce come criminali sovversivi, colpevoli di gravi reati che li accomuna: la curiosità , la sete di sapere, la diffusione della conoscenza, la volontà di libertà intellettuale. Queste persone sono i moderni “pirati”informatici :veri e propri paladini del diritto ,ribelli che sfidano le obsolete leggi del copyright in nome della libera circolazione delle informazioni , programmatori brillanti che il sistema giudiziario non distingue dai ladri e delinquenti comuni. Con la lettura dell’ “Elogio della Pirateria” cresce sempre più nella mente del lettore il paradosso per cui coloro che sono i fuorilegge della società sono essi stessi gli unici a poterla salvare dal collasso; ma ,come scrive giustamente l’autore nell’introduzione ,tale parodosso è comune ad ogni epoca storica, in cui “criminali ribelli ” sono proprio coloro che apportano progresso e spingono il presente a fare un passo più in là verso il futuro. Il libro è diviso in 10 capitoli , ognuno dei quali descrive una pratica di pirateria differente: da quella televisiva e radiofonica a quella musicale , da quella agroalimentare e farmaceutica a quella culturale. Più utile ai nostri scopi è forse il quarto capitolo che riguarda la pirateria informatica, ovvero la copia ad uso personale e senza scopo di lucro del software, il libero scambio di programmi e la mutua cooperazione tra utenti di sistemi informatici, pratiche che esistono da sempre nel mondo dell’informatica ma che le grandi compagnie produttrici vogliono rendere fuorilegge dietro la maschera burocratica del copyright ricavandone benefici economici. Veramente appassionanti sono i due “manifesti hacker” che si possono leggere in questo capitolo: il primo è scritto dal misterioso pirata del software noto con il nickname “The Mentor”nel1986 ,mentre il secondo è una “dichiarazione di indipendenza del ciberspazio” scritta dieci anni dopo da Perry Barlow (cantante dei Grateful Dead). Le parole dei due “hackers” trasportano il lettore direttamente nel Cyberspace, “la casa della mente” nella quale si realizza ciò che nella realtà sembra impossibile, e cioè il libero scambio di conoscenza e informazioni. Ma allo stesso tempo essi avvertono che quel mondo magnifico che si è creato spontaneamente e nella collettività, è minacciato dall’esterno, dal mondo reale che vuole incatenarlo e sfruttarlo come una qualsiasi fonte economica.
Concludo questo mio breve articolo con la speranza di aver contribuito alla segnalazione e quindi alla diffusione di questo libro a mio parere molto attuale ed interessante .
Ciao a tutti.“E’ pericoloso aver ragione quando le autorità costituite hanno torto”.
[Voltaire]Bibliografia:
-Carlo Gubitosa, “Elogio della Pirateria - Dal Corsaro Nero agli hacker - dieci storie di ribellioni creative”, Terre di Mezzo, 2005.
Sitografia:
-
-
-
Tue 29 Jun 2010
Sono passati sessant’anni dalla pubblicazione di Turing Computing Machinary and Intelligence, in questo saggio il matematico inglese tentò di stabilire, senza il rischio di affondare tra le sabbie mobili della filosofia e della teologia, in che modo una macchina poteva essere considerata intelligente. A tale scopo propose un test secondo il quale se si fosse riusciti a creare un programma talmente sofisticato da far sì che un interlocutore mediamente intelligente non fosse in grado di distinguere se stava conversando con una persona o una macchina, allora avremmo potuto dire che la macchina pensa. Questa posizione per quanto affascinante e gravida di conseguenze (basti pensare agli enormi progressi della linguistica computazionale) risente tuttavia di un forte riduzionismo; ritenre valido questo test significa infatti considerare il pensiero e il ragionamento come un processo algoritmico e nient’altro. Turing e Von Neumann congetturarono infatti che la nostra capacità di fare tante cose diverse, sia dovuta alla presenza nel nostro cervello di un calcolatore universale ed è innegabile che l’ipotesi che vi sia qualche tipo processo algoritmico che accede all’informazione richiesta partendo da una base di dati che abbiamo nel cervello è, almeno a prima vista molto attraente. Tuttavia a oggi non possiamo asserire niente di esatto riguardo al funzionamento del nostro cervello e i programmi di simulazione del pensiero tentati fin’ora sono ben lontani dalle aspettative di Turing. Il problema è che non sappiamo esattamente cosa stiamo simulando: non sappiamo abbastanza dell’oggetto - la mente -, di cui stiamo cercando modelli, per avere teorie precise che possano essere verificate dall’elaboratore. In questo modo si cade in una circolarità dalla quale è difficile uscire da una parte capire come l’uomo esegua compiti sofisticati è un punto di partenza importante per la scoperta di programmi che riescano a fare altrettanto, dall’altra facciamo appello alla simulazione da parte dell’elaboratore perchè non capiamo come questi compiti vengano svolti. Il problema è che ci manca la conoscenza di come funzioni l’uomo nei particolari, seppur abbiamo una buona conoscenza delle strategie generali. La simulazione poichè è solo a livello globale, dipende dalla teoria di ciascun individuo su come l’uomo opera in maniera generale e non possiede la qualità di riprodurre fedelmente come il termine “simulazione” invece suggerisce e questo mette in luce un’instabilità di fondo del concetto. si può pensare allora di cercare l’intelligenza nelle macchine in campi che esulino completamente dal linguaggio, si è tentato infatti di cercarla nei programmi che giocano a scacchi, tuttavia come mette bene in luce Searle in una critica a un libro divulgativio di Ray Kurzweil, riprendendo l’epserimento della stanza cinese: “Ecco che cosa succede dentro Deep blue (programma di scacchi che nel 1996 ha sconfitto il campione del mondo Kasparov nda). Il programma possiede un mucchio di simboli privi di significato che i programamtori usano per rappresentare le posizioni dei pezzi sulla scacchiera e un altro mucchio di simboli, anch’essi privi di significato, che vengono usati invece per rappresentare scelte di mosse possibili. Ma non sa che i simboli rappresentano pezzi e mosse degli scacchi, perchè non sa niente.”.
Tue 29 Jun 2010
bibliografia: “Godel, Escher, Bach: un’eterna ghirlanda brillante” di Douglas R. Hofstadter
Tue 29 Jun 2010
Se un programma di intelligenza artificiale fosse in grado di battere qualsiasi avversario al gioco degli scacchi, questo stesso programma un giorno potrebbe rifiutarsi di giocare, per noia. -Perchè non chiaccherare di poesia contemporanea?- Potrebbe rispondere. Sarebbe, infatti, un programma dotato di un’intelligenza generale, non focalizzata solamente sulla scacchiera, bensì in grado di spaziare e di interessarsi ad altro. Un’intelligenza in grado di trovare soluzioni creative non si limita a ripetere ciò che già sa (in questo modo diventerebbe presto obsoleta), dovrebbe esser in grado di apprendere. E questo comporta che sia curiosa e molto probabilmente che abbia un libero arbitrio. Dovremmo, per riuscire a creare un’intelligenza artificiale di questo tipo, riuscire a ricreare un meccanismo che riproduca il groviglio neuronico del nostro cervello. Groviglio neuronico che poi dovrebbe portare a un grovglio di simboli. I nostri ragionamenti, anche quelli più logici non sono così lineari e ordinati come potremmo pensare. La caratteristica però che più difficilmente riusciremmo a riprodurre sarebbe, probabilmente, la nostra capacità di “creare mondi al congiuntivo”. Il nostro utilizzo del “SE” e dei periodi ipotetici è del tutto naturale e spontaneo ma è fondamentale per essere ciò che siamo. Il “se” è in grado di aprire nuove prospettive rispetto a una negazione.
“Come sarebbe piatta e morta una mente che non sapesse scorgere in una negazione nient’altro che un’paca barriera . Una mente viva vi può vedere una finestra che si affaccia su un intero mondo di possibilità.”( D.R. Hofstadter). Insomma le proposizioni condizionali sono fondamentali per la dinamica del modo di sentire degli uomini. E’ difficile riuscire a imaginare come si potrebbe trasferire questa nostra peculiare capacità su un sistema artificiale. Il funzonamento del “processo ipotetico” infatti, non è chiaro nemmeno a noi. I simboli che utilizziamo si attivano in modo non gerarchico, bensì eterarchico. Quale sarebbe il criterio ultimo allora a cui dovrebbero rifarsi tutti i nostri processi mentali? A quanto pare non esiste. In realtà stiamo entrando in un circolo vizioso, uno strange loop. Dovremmo, infatti, riuscire a guardarci da fuori per trovare quello che stiamo cercando. Continuiamo a guardare noi stessi eppure non possiamo farlo che con i nostri occhi e la nostra logica. C’è per forza qualcosa che ci sfugge. Il folle, ripercorendo i propri ragionamenti tappa per tappa non li troverà forse dettati da una logica stringente? Ma facciamo un passo indietro. Se davvero riuscissimo a creare un’intelligenza artificiale in grado di eguagliare quela umana questo non comporterebbe necessariamente creare una macchina dotata di libero arbitrio? E allora come potranno le macchine prostrarsi al servizio dell’uomo? E noi non avremmo problemi etici a sfruttare esseri dotati di consapevolezza e forse di coscienza?(No probabilmente ma sarebbe umano se ne avessimo.) I film e la letteratura di fantascienza ci hanno aperto numerose prospettive su quello che poterbbe succedere SE una tale eventualità si avverasse. Forse davvero sarebbe la macchina il passo successivo dell’evoluzione.Forse davvero un giorno saremo responsabili della creazione di una super-intelligenza. Ma allora, saremmo in grado di comprenderla?E ancora: lei sarebbe disposta a lavorare per noi? E se no, quali sarebbero le conseguenze? E quale lo scopo per cui l’avremmo creata? Probabilmente siamo così impegnati nella costruzione di un’intelligenza artificiale perchè è un altro modo in cui cerchiamo di comprendere noi stessi. Forse è solo uno stimolo in più per cercare di orientarci in quel groviglio di neuroni e simboli che forma la nostra mente. E allora ben venga. Ma dovremo pensare anche alle infinite e imprevedibili conseguenze che alcune scoperte potrebbero prtare con sè.Bibliografia: “Godel, Escher, Bach: un’eterna ghirlanda brillante” di Douglas R. Hofstadter
Tue 29 Jun 2010
“Generación Y è un Blog ispirato alla gente come me, con nomi che cominciano o contengono una “y greca”. Nati nella Cuba degli anni 70 e 80, segnati dalle scuole al campo, dalle bambole russe, dalle uscite illegali e dalla frustrazione. Per questo invito a leggermi e a scrivermi soprattutto Yanisleidi, Yoandri, Yusimí, Yuniesky e altri che si portano dietro le loro “y greche”.
Yoani Sánchez è l’esempio di come attraverso l’utilizzo del blog si possa informare, fare giornalismo e combattere la censura. iIl blog di Yoani Sanchez si chiama “Generacion Y “ ed è diventato famoso per il coraggio con cui descrive la realtà cubana superando le barriere del regime e della disinformazione.
Yoani Sanchez è nata nel 1975 all’ Havana , città in cui ha studiato letteratura e filologia. Dopo un soggiorno di due anni in Svizzera, decise di tornare a Cuba per vivere nella sua città natale.
Sanchez lanciò il suo blog Generacion Y il 9 aprile del 2007, che venne ospitato in Germania in un dominio chiamato Cronon AG. In seguito Generación Y è organizzato sul software libero Wordpress, scaricato gratuitamente da http://www.wordpress.org e anche il server dove è ubicato è basato sul programma a licenza libera Linux. La home page di Desdecuba.com è costruita su un altro sistema aperto e gratuito chiamato Joomla.Nel suo blog la giornalista cominciò a descrivere la vita cubana, ma decise di farlo con moderazione e con toni rispettosi, chiedendo a chi lasciava commenti di fare altrettanto. Nel 2007 apparse un articolo sul Wll Street Journal che accrebbe notevolmente la fama del blog. L’articolo era intitolato Cuban Revolution: Yoani Sánchez fights tropical totalitarianism, one blog post at a time. Nello stesso anno anche El Pais, Die Zeit e il New York Times cominciarono a parlare di Generacion Y.
Nel 2008 il governo di Cuba censurò il blog all’interno del paese, e questo naturalmente accrebbe enormemente la fama del blog.“Questo blog non riceve finanziamenti né aiuti da partiti politici, governi e organizzazioni di carattere ideologico. La sua natura è indipendente e autonoma, si è sviluppato e si mantiene grazie alla solidarietà cittadina e alla mia spinta personale, per questo sarà online fino a quando avrò storie da raccontare e voglia di continuare a pubblicarle nel ciberspazio” scrive Sanchez, esprimendo molto bene quelle che sono le possibilità del blog, possibilità di indipendenza, possibilità di non entrare in circuiti di clientelismo politico e di autocensura.
Sanchez ha ottenuto premi di giornalismo come il premio “Ortega Y Gasset” ed è stata selezionata dalla rivista “Time” come una delle persone più influenti del 2008”.
Il giornale italiano “l’internazionale” pubblica ogni settimana una rubrica firmata dalla giornalista cubana.sitografia:
http://it.wikipedia.org/wiki/Yoani_S%C3%A1nchez
http://www.internazionale.it
http://www.desdecuba.com
About the Site:
- Attività pratica associata al corso
Links
- -- Il blog: natura e finalità di questo blog
- -- Il blog: cattivi esempi
- Bibliografia e materiali
- Extensible Markup Language
- Text Encoding Initiative
- Weblog (da 'Internet 2004')
- Wiki (dal sito ufficiale)
- Word Wide Web Consortium
Pages
Categories:
- – blog (3)
- filosofia: favola o argomentazione? (7)
- computazione (22)
- intelligenza artificiale (58)
- hackers (23)
- testo digitale (38)
- motori di ricerca (16)
- web (62)
- linguaggi di markup (8)
- internet (88)
- comunicazione (84)
- software (40)
- tecnologia (43)
- informatica umanistica (50)
- web semantico (32)
- informatica (41)
- ontologie (15)
- biblioteche digitali (21)
- rappresentazione della conoscenza (14)
- cyberspace (30)
- Realtà Virtuale (13)
- digital divide (10)
- multimedia (27)
- infosfera (7)
- teoria delle reti (3)
- wikipedia (8)
- informatica giuridica (14)
- complessità (6)
- ipertesto (19)
- linguaggi di programmazione (3)
- bioinformatica (6)
- weblog (blog) (9)
- robotica (9)
- letteratura e computer (18)
- appunti del corso (2)
- arte (21)
- estetica (8)
- ergonomia (2)
- tecnica (3)
- filologia computazionale (1)
- social networks (17)
- e-book (13)
- etica dell’informazione (20)
- filosofia dell’informazione (3)
- teoria dei calcolatori (2)
- web e società (13)
Monthly:
- July 2010 (2)
- June 2010 (20)
- May 2010 (7)
- April 2010 (16)
- March 2010 (22)
- February 2010 (18)
- January 2010 (9)
- December 2009 (1)
- November 2009 (17)
- October 2009 (6)
- September 2009 (11)
- August 2009 (1)
- July 2009 (6)
- June 2009 (7)
- May 2009 (19)
- April 2009 (1)
- March 2009 (24)
- February 2009 (15)
- January 2009 (16)
- December 2008 (10)
- November 2008 (17)
- October 2008 (10)
- September 2008 (10)
- July 2008 (8)
- June 2008 (19)
- May 2008 (29)
- April 2008 (1)
- March 2008 (8)
- February 2008 (2)
- January 2008 (11)
- December 2007 (18)
- November 2007 (27)
- October 2007 (1)
- September 2007 (15)
- August 2007 (1)
- July 2007 (4)
- June 2007 (12)
- May 2007 (25)
- April 2007 (10)
- March 2007 (3)
- February 2007 (32)
- January 2007 (20)
- December 2006 (8)
- November 2006 (7)
- October 2006 (6)
- May 2006 (2)
- April 2006 (2)
- March 2006 (2)
- February 2006 (1)
- January 2006 (4)
- November 2005 (1)
- October 2005 (4)
RSS Feeds:
Meta
- Login
- Valid XHTML
- Valid CSS href="http://posterous.com"> da site_name (())
Informatica per le scienze umane - Prof. Dino Buzzetti
Informatica per le scienze umane - Prof. Dino Buzzetti
Attività pratica associata al corso
Mon 19 Jul 2010
La metafora della mente come un computer nella psicologia cognitiva
Posted by Stefano Zuccato under intelligenza artificiale , comunicazione , informatica , teoria dei calcolatori
No Comments
La psicologia cognitiva fu una delle principali correnti psicologiche degli anni ’60 e ’70 sviluppatasi a partire dalla fine degli anni ‘50. Alcuni aspetti che evidenziano come la prospettiva cognitiva si distinse dalla principale corrente psicologia precedente, il comportamentismo, sono l‘interesse a conoscere le strutture e le funzioni del sistema nervoso (che il comportamentismo concepiva come una “scatola nera“) e quindi il considerare il comportamento come il risultato di modelli mentali che elaborano l’informazione esterna (e interna) e non semplicemente come la risposta ad uno stimolo. Il principio della psicologia cognitiva che intendo qui approfondire è quello che sosteneva che sia la mente che il calcolatore operassero fondandosi su processi e regole simili e quindi che l’elaborazione umana dell’informazione potesse essere simulata con un computer.
Nel libro Psicologia cognitiva del 1967, Urlic Neisser esplicò l’esistenza di un orientamento che di fatto era già molto seguito. Il cognitivismo veniva definito come un indirizzo di ricerca frutto della convergenza di indagini teoriche e sperimentali svolte in ambiti disciplinari diversi, quali la psicologia sperimentale, la teoria dell’informazione e la cibernetica, la linguistica e le neuroscienze. Pressoché tutti i ricercatori degli anni ’60 e ’70, concependo i processi cognitivi come delle unità di elaborazione dell’informazione, accolsero la metafora della mente come un calcolatore e a causa di questo fu posta poca attenzione all’influenza dei contesti sociali, storici e culturali sullo sviluppo cognitivo. Infatti già nella seconda metà degli anni ‘70 i principi della psicologia cognitiva furono sottoposti ad una revisione critica che sottolineava tra l’altro l’esigenza di studiare la mente umana in condizioni naturali (approccio ecologico) e non in laboratorio.
Per capire meglio come la psicologia cognitiva arrivò a pensare il cervello come una macchina è necessario tornare indietro e, partendo dal lavoro del matematico Alan M. Turing, porre attenzione alla storia delle discipline che contribuirono alla sua formazione. Con i suoi lavori degli anni ‘30 Turing gettò le basi della psicologia cognitiva, della logica dei computer così come la conosciamo oggi e dell’intelligenza artificiale. Teorizzò una “macchina” (composta da un nastro organizzato in celle caratterizzabili a due stati, da una testina in grado di modificare e memorizzare lo stato del nastro in ogni momento e da una unità di controllo col compito di muovere la testina) capace di comporre ed eseguire una serie infinita di programmi mediante il solo codice binario. L’efficienza di questa macchina virtuale poteva essere misurata mediante un test (“test di Turing”) che sostanzialmente confrontava il prodotto cognitivo di una macchina con il prodotto cognitivo del cervello. Infatti il test consisteva nel far svolgere lo stesso problema sia alla macchina che ad un essere umano e se entrambi davano lo stesso risultato allora si poteva dire che la macchina aveva superato il test. A metà degli anni ’40 John von Neumann, inventore del dispositivo “di applicabilità generale” (general purpose, la cui architettura è alla base di gran parte dei calcolatori da allora progettati), pensò che il suo dispositivo poteva essere un’effettiva realizzazione della macchina di Turing; infatti la macchina di von Neumann era capace di memorizzare dati ed istruzioni, di elaborare i dati mediante le istruzioni e poi di riscrive i dati elaborati in memoria, tutto questo su un medesimo supporto.
Tuttavia l’analogia tra cervello e calcolatore fu resa esplicita e messa in evidenza dalla cibernetica, in particolare in due lavori del 1943. L’articolo di Arturo Rosenblueth, Norbert Wiener e Julian H. Bigelow, intitolato Comportamento, scopo e teleologia, unì il concetto di finalizzazione del comportamento a quello dei sistemi di autoregolazione e controllo per il conseguimento di uno scopo. Cioè mise in evidenza l’analogia tra questi sistemi artificiali basati sul feedback (ad esempio il termostato in un forno) e il comportamento proprio degli animali (e dell’uomo). L’articolo di Warren S. McCulloch e Walter H. Pitts, Un calcolo logico delle idee immanenti nell‘attività nervosa, invece rappresentò l’attività dei neuroni in termini di proposizioni logiche: la stessa logica che reggeva il funzionamento neuronale poteva essere alla base della logica del funzionamento di una macchina come il computer. Si ipotizzò quindi che entrambi gli elaboratori di informazione operassero mediante lo stesso codice binario. Nel 1948 Norbert Wiener pubblicò il libro Cybernetics con cui presentava la nuova scienza del “controllo e della comunicazione negli animali e nelle macchine”.
Questi studi si legavano alla “teoria dell‘informazione“, una branca dell’ingegneria applicata sviluppata da Claude E. Shannon nel 1948, secondo la quale le proprietà intrinseche di un messaggio trasmesso in un sistema, organico o artificiale, erano indipendenti dal sistema stesso, ovvero sosteneva che l’informazione avesse regole di trasmissione ed elaborazione che prescindono dal sistema di supporto e dal contenuto trasmesso. Il modello elaborato da Shannon prevedeva che un messaggio, per essere trasmesso da un mittente ad un destinatario, doveva prima venire codificato, poi attraversare un canale e in fine venire decodificato all’arrivo. Quindi, per trovare il modo più efficiente per trasmettere “informazione“ era necessario ridurre l’entropia del canale (disordine) e aumentarne l‘ordine codificando appropriatamente il messaggio. La teoria dell’informazione fornì allora il codice bit, abbreviazione di binaty digit (numero binario).
Da questi studi iniziò ad emergere il cognitivismo e gli psicologi cominciarono ad assumere nuovi linguaggi per descrivere la mente umana. Primo fra tutti George A. Miller descrisse le modalità con cui l’individuo elabora l’informazione proprio con il linguaggio della teoria dell’informazione. Nel suo libro Piani e strutture del comportamento del 1960 , scritto assieme a Karl Pribram e Eugene Galanter, venne accentuato il carattere finalizzato dei processi mentali descrivendo l’azione come un comportamento strutturato e non come una semplice sequenza di risposte. Ovvero il comportamento umano fu visto come il prodotto di un’elaborazione dell’informazione per lo svolgimento di “piani”, organizzati gerarchicamente e utili alla soluzione di problemi. La struttura dei piani fu descritta da l’unità di monitoraggio TOTE (Test-Operate-Test-Exit) che si sviluppava in quattro fasi: una verifica da parte dell’individuo della situazione presente (test), un “operare” per rimuovere le eventuali incongruità con lo stato di cose desiderato, un altro test di controllo e in fine, se le incongruità erano state eliminate, la conclusione del programma (exit). Per arrivare alla descrizione dell’unità TOTE fu evidentemente fondamentale la nozione di feedback sviluppata dalla cibernetica.
Quindi, quando Neisser scrisse Psicologia cognitiva, la mente era ormai concepita come un elaboratore di informazione con un’organizzazione prefissata di tipo sequenziale e con una capacità limitata di elaborazione. Secondo Neisser il calcolatore consentiva di descrivere in maniera efficace le operazioni svolte dall’elaboratore umano e la metafora della mente come computer era basata sul alcune nozioni quali: informazione, canale, sequenza di trasmissione ed elaborazione dell’informazione, strutture input e output dell’informazione dall’elaboratore, strutture di memoria. Le descrizioni dei processi cognitivi fatte in quegli anni si basarono su queste nozioni e si servirono di diagrammi di flusso formati da unità (“scatole“), aventi ciascuna compiti definiti, che descrivevano, in modo sequenziale e unidirezionale, lo scorrere dell’informazione nel tempo secondo la concezione dell‘elaborazione umana dell‘informazione. A sostegno della propria tesi Neisser sostenne che “il compito di uno psicologo che cerca di comprendere i processi cognitivi dell’uomo è analogo a quello di un tecnico che tenti di scoprire come è stato programmato un computer” perché “un programma non è una macchina; esso è una serie di istruzioni […].” La psicologia cognitiva quindi intendeva conoscere, per così dire, il modo in cui era programmato l’uomo studiando i “programmi” mentali.
Alla metà degli anni ‘70 ebbe inizio un’opera di revisione teorica e metodologica all’interno del cognitivismo. Fu sempre Neisser, nel libro Cognizione e realtà. Principi e implicazioni della psicologia cognitiva (1976), a riassumere gli aspetti problematici emersi nella letteratura della psicologia cognitiva. Riferendosi in particolar modo al lavoro di James J. Gibson, venne criticato soprattutto la proliferazione di nuove tecniche e paradigmi sperimentali senza alcuna validità ecologica e non inerenti alla vita quotidiana. In più la metafora tra mente e computer venne ridimensionata. Neisser continuò a sostenere che, fra le cause della nascita della psicologia cognitiva, “la più importante era probabilmente connessa con l’avvento del calcolatore, […] perché le attività stesse del calcolatore sembravano in qualche maniera affini ai processi cognitivi. I calcolatori accettano le informazioni, manipolano i simboli, immagazzinano i dati nella “memoria” e li recuperano quando occorre […]. Non era tanto importante che facessero queste operazioni proprio come fanno gli uomini, ma era importante che lo facessero”; ma il problema fu che questa affinità portò a pensasse alla mente come una macchina auto-dotata di sistemi di elaborazione dell’informazione e indipendente dall’ambiente, e non come un prodotto del cervello e del resto del corpo. Così il nuovo approccio, abbandonando la concezione delle “scatole” che elaborano l’informazione, mise in evidenza il carattere funzionale della mente pensandola come incorporata in un organismo in continua relazione con il mondo esterno e definendo l‘informazione come un flusso (non unidirezionale) determinato dai movimenti dell‘individuo nell‘ambiente. In questo contesto di riflessioni autocritiche e di nuove acquisizioni in discipline di confine si sviluppò il nuovo orientamento interdisciplinare della “scienza cognitiva”.
In La nuova scienza della mente di Howard Gardner (1985), dove sono analizzati gli aspetti principali della scienza cognitiva, si sostiene che il riferimento al calcolatore sia comunque fondamentale perché, simulando i processi cognitivi, può rappresentare un modello di come funziona la mente anche se opera in modo differente. L’intelligenza artificiale, una delle discipline legate alla scienza cognitiva, fornisce i programmi simulatori di prestazioni cognitive umane e, quando questi programmi operano in modo indistinguibile da quello umano, viene detto che rappresentano un modello adeguato delle prestazioni umane. La scienza cognitiva dunque, per poter affermare questo, si basa sull’assunto che i processi cognitivi siano rappresentabili come un insieme di regole e simboli fra input e output; ma su questo aspetto non tutti gli studiosi sono d’accordo, e così negli anni ‘80 nacque il “connessionismo”. Questo approccio si presenta come un’alternativa ai modelli della simulazione simbolica ed ha come caratteristica principale il superamento della concezione di calcolatore alla von Neumann. Partendo dall’osservazione che una struttura come quella del computer, essendo differente da quella del cervello, non può simulare il prodotto della mente, ha elaborato un modello di simulazione basato sul funzionamento delle reti neurali dove l’elaborazione dell’informazione, che è costituita da elementi non simbolici e da connessioni fra questi elementi, avviene in parallelo su tutti gli “input” e produce un “output”. La ricerca contemporanea di origini cognitivistiche, abbandonata l’idea che la mente operi come un computer, è quindi orientata in parte secondo l’approccio, di stampo informazione, della scienza cognitiva, e in parte secondo l’approccio di tipo connessionista che ritiene che il funzionamento dei processi mentali non sia regolato da particolari regole o procedimenti. Secondo John Anderson questi due approcci potrebbero essere le due facce della stessa medaglia. Per così dire, i modelli informazioni potrebbero corrispondere al software cognitivo, mentre i sistemi connesionisti potrebbero corrispondere all’hardware soggiacente alle attività di pianificazione.
Bibliografia:
Benjafield John G., (1995), Psicologia dei processi cognitivi
Mecacci Luciano, (1992), Storia della psicologia del Novecento
Mecacci Luciano, (2001), Manuale di psicologia Generale
Mari Luca, Buonanno Giacomo, Donatella Sciuto, (2007), Informatica e cultura dell’informazione
Thu 1 Jul 2010
Un Internet fatto di “memes”
Posted by Paulo Fernando Levano under internet , comunicazione , rappresentazione della conoscenza , cyberspace , web e società
No Comments
La parola “meme”, da quando é stata coniata (Dawkins, 1976) fino ai giorni nostri, sta ad indicare un modello di informazione che si trasmette “da solo” da un supporto (che può benissimo essere la nostra mente) a un altro supporto, in modo analogo alla trasmissione dell’informazione genetica. Infatti per Dawkins (che si dedica all’etologia), se l’unità di informazione genetica é il gene, allora l’unitá di informazione culturale é appunto il meme; questa unità può contenere dentro di sè qualunque tipo di informazione, a patto che ci sia un modo in cui essa possa auto-replicarsi. Tecnologie, credenze religiose, ma anche moda e persino melodie: tutte manifestazioni culturali che attraverso l’oralità, il discorso scritto o il gesto possono trasmettersi da generazione in generazione, suscettibili però ai meccanismi evolutivi di selezione (alcune cose ci vengono trasmesse e poi le dimentichiamo, alcune cose vengono dimenticate prima di venire trasmesse). Quindi, quando parliamo di meme, parliamo di comunicazione: e quando parliamo di comunicazione oggi meno che mai possiamo non considerare Internet e la WWW. Per prima cosa c’é da notare che nel processo di trasmissione, fondamentalmente chi dà non conosce chi riceve e viceversa; basta soltanto che il codice in uso sia quello più universale (e ciò si spiega dal fatto che un meme può replicarsi in un determinato contesto culturale, ma sul web entrano in gioco veramente tante persone, ognuna con le sue aspectus mundi). Facendo un’altra considerazione, negli esempi fatti all’inizio, possiamo vedere un primato del significato sul significante (lo scopo in questo caso é che il meme conservi il suo valore, e sono i mezzi che si adattano), ma su Internet il significante si impone sul significato (per dirla breve, bisogna dire una cosa nel modo giusto anzichè dire una cosa giusta): un esempio chiaro sono gli image macro, in cui si tratta di un’immagine con una scritta che delucida o capovolge il senso dell’immagine stessa, o viceversa. Finalmente, possiamo osservare che su Internet il tempo di vita di un meme é brevissimo; certamente nessuno ci impedisce di andare a ripescarli, ma per gli internauti il meme é un “inside joke” istantaneo, quasi come lo spartiacque fra il linguaggio della vita reale e il linguaggio on-line, e quest’ultimo non può mai essere statico: il “nuovo”, il “pivello”, si troverà sempre un corpus di dati sciolti, quasi messi a caso, e costantemente rinnovantesi, così come la quantità di “cose nuove” entrano nel web e rinnovano il patrimonio “meme”-etico. Non c’é dubbio ormai: questo decennio appena finito ha visto la costituzione di un linguaggio di utenti che riesce a collocare qualsiasi tipo di evento o idea al livello di fenomeno di internet, compatibilmente con la promessa di avverare la promessa fatta da Warhol nel ‘68: tutti avremo i nostri 15 minuti di fama.
Wed 30 Jun 2010
LA FRUIZIONE DEI TESTI DIGITALI DAL PUNTO DI VISTA DELL’ESTETICA
Posted by Manfrida Radharani under letteratura e computer
No Comments
L’uso e la diffusione di nuove tecnologie e strumenti per la produzione e condivisione di informazioni ha condizionato e rivoluzionato anche il linguaggio dell’arte e la modalita’ di esplicazione teorica dell’arte stessa.
Particolarmente interessante diviene la posizione del fruitore nei confronti delle opere d’arte creaate attraverso hardware,come per esempio nel caso delle scritture digitali relativamente a quella che puo'’ essere chiamata “letteratura elettronica”.Un esempio di letteratura elettronica e’ dato dalla poesia ipertestuale,dalla poesia cinetica,l’iper romanzo.
Con il loro carattere di intertestualita’,interattivita’,i testi digitali hanno del tutto modificato il rapporto opera-fruitore stravolgendo la posizione del lettore stesso.
Innanzitutto per poter accedere e fruire questo tipo di produzione artistica e’ necessario saper usare i dispositivi e le apparecchiature che ne permettono l’accesso e la condivisione in quanto veicoli di riproducibilita’ tecnica dei testi.
L’uso dei dispositivi digitali rende l’opera interattiva,molto diversa quindi dal testo a stampa che si dimostra statico.Fra il lettore e l’autore le distanze si assottigliano grazie alla componente interattiva che prevede,almeno in parte,la partecipazione del lettore alla costruzione del significato dell’opera,in alcuni casi scegliendo il percorso narrativo della propria lettura e commentando quanto letto,in altri intervenendo direttamente sul testo scegliendo lo svolgersi della trama.Lettore-autore si fondono scambiandosi spesso i ruoli e la costruzione dell’opera assume un senso collaborativo all’interno di una sorta di “comunita’ di scriventi” impregnando cosi’ la creazione artistica di un senso collettivo e di condivisione.
Non mancano le posizioni critiche,une sempio e’ dato dall’argomentazione estetica di Benjamin che,seppur non negail valore innovativo dell atecnica nella produzione artistica,ne evidenzia pero’ alcuni svantaggi teorici dovuti alla riproducibilita’ e alla diffusione di massa che intaccherebbero la dimensione individuale non permettendo la fruizione al singolo e percio’ non permetterebbero l’accesso alla dimensione piu’ profonda dell’arte.
Wed 30 Jun 2010
Xlink: possibilità di fruizione
Posted by Paola Piccioli under web , linguaggi di markup , web semantico , informatica , ipertesto , appunti del corso
No Comments
XLink è la nuova frontiera del link nel mondo di XML: elaborato dalla W3C e disponibile in due versioni (la 1.0, in circolazione dal 2000, e la 1.1, rilasciata nel 2001), permette di creare e descrivere link fra diverse risorse, come ad esempio file, immagini, documenti, programmi, risultati di ricerche, presenti sia all’interno dello stesso documento XML sia all’ esterno. I link possono essere sia unidirezionali sia bidirezionali, e sono in grado di sostenere strutture estremamente complesse, contenendo elementi che indicano remote resources, elementi che contengono local resources, elementi che specificano le regole degli arc traversal, ed elementi per specificare risorse leggibili per l’utente umano e titoli di arc. I link multi direzionali rendono possibile la relazione tra diverse risorse, che altrimenti dovrebbero essere salvate in diversi documenti; possono indicare regole per la “navigazione” (traversing) del link grazie ad una serie di elementi arc (cioè regole di navigazione tra risorse), per esempio può avere attributi di navigazione (“da” e “a”), di comportamento (“mostra” e “attua”) e semantici (“ruolo dell’arc” e “titolo”).
In questa immagine è possibile vedere, ad esempio, un link associato a cinque risorse e fornisce regole per navigare attraverso esse:
Il modello di “collegamento” di XML beneficia della complementarietà delle proprietà intrinseche di Xlink e Xpointers. Quest’ultimo fornisce gli strumenti per l’identificazione dei frammenti di risorse web, mentre Xlink provvede a quelli che raggruppano o raccolgono tali risorse in appropriati collegamenti.
Nonostante Xlink non sia stato ancora implementato in nessuno dei maggiori browser commerciali, il suo impatto sarà cruciale per le applicazioni XML del futuro prossimo. Il suo design estensibile e facile da imparare si dimostreranno un vantaggio man mano che la nuova generazione di applicazioni XML si svilupperà.
Sitografia:
http://www.w3.org/TR/xlink/
http://www.xml.com/pub/a/2000/09/xlink/index.html
http://www.wikipedia.org
Wed 30 Jun 2010
Una breve storia dei sintetizzatori sonori
Posted by Tommaso Michelini under tecnologia , multimedia , arte
No Comments
Negli ultimi sessant’anni di storia della musica, lo sviluppo delle tecnologie elettroniche ed informatiche ha rivoluzionato il modo in cui si distribuisce e si ascolta un brano - basti pensare al fenomeno del piccolo monopolio di iTunes ed iPod - ma anche i metodi con i quali l’artista registra e produce le proprie tracce.
Se nella musica degli anni ‘70 l’uso di strumenti elettronici era riservato a pochi grandi autori - se una volta accendendo la radio il suono sintetico era magia, oggi la gran parte delle produzioni di musica leggera fa uso quasi esclusivo di sintetizzatori e batterie elettroniche.
Vogliamo proporre in questa sede una breve storia degli strumenti elettronici, e in particolare dei sintetizzatori sonori: dai primi suoni generati da un circuito elettrico, per arrivare all’esplosione degli anni ‘80 e infine alla diffusione capillare che ha caratterizzato la scorsa decade.
Il primo esempio di suono sintetico generato da un sistema elettromeccanico risale al 1896, quando l’inventore americano Thaddeus Cahill registra all’ufficio brevetti il principio di funzionamento di un apparato chiamato Telharmonium (Dinamofono). Lo strumento gargantuesco era azionato da dodici motori a vapore, ed era già polifonico – poteva emettere più di una singola nota allo stesso tempo – nonché dotato di tasti sensibili alla dinamica come il pianoforte.
Due decadi più tardi (ca. 1919) l’inventore russo Leon Theremin brevettò un ingegnoso sintetizzatore di suoni monofonico (i.e. in grado di emettere una sola nota per volta) su scala molto più piccola, che prese il suo cognome da lì in poi.
Il Theremin è un sintetizzatore che irradia attorno a sé un piccolo campo elettrico: due antenne poste ai lati del circuito elettrico percepiscono la vicinanza delle mani dello strumentista, che muovendole in aria modifica l’intonazione dell’onda emessa dal Theremin ed il suo volume.
Questo strumento è utilizzato tutt’oggi, e si distingue per l’eleganza nella gestualità del musicista e per la timbrica distinta che, seppure sintetica e spettrale, ricorda la voce di un soprano.
In Europa si ricordano esperimenti analoghi come l’Ondes Martenot, del francese Maurice Martenot (1928) ed il Trautonium dei tedeschi Sala e Trautwien (1930).
Negli anni successivi alla Seconda Guerra Mondiale – durante la quale videro la luce i primi pianoforti elettrici, la cui timbrica e meccanica era più simile ad una chitarra elettrica che ad un piano – fu coniato il termine sintetizzatore per intendere uno strumento musicale automatico basato su oscillatori elettrici, ovvero generatori di onde elettriche.
Il vero padre del sintetizzatore come lo si intende oggi è Robert A. Moog, che nel 1964 inventa lo storico sintetizzatore modulare (Moog Modular): la grande intuizione di “Bob” Moog sta nell’unire i circuiti oscillatori ad una vera e propria tastiera da organo.
Il primo, storico disco prodotto interamente con questo strumento è lo “Switched-On Bach” di Wendy Carlos (1968), una reinterpretazione avveniristica di alcuni dei principali movimenti di J. S. Bach.
Con il passare alla storia del disco come primo esempio di registrazione di musica elettronica con sovraincisioni, la vendita di sistemi Moog aumenta rapidamente – seppure ancora riservata ai grandi studi di registrazione.
Nel 1971, Robert Moog rilascia probabilmente il sintetizzatore più venduto e ricercato nella storia della musica: il MiniMoog Model D; poco più grande di una tastiera a tre ottave e mezzo, è il primo esempio di strumento elettronico compatto ed economico. La gamma di suoni offerta è limitata rispetto al Moog Modular, ma la vera portabilità ne fa uno strumento che entra a pieno titolo sul palco a fianco
Il MiniMoog entra di prepotenza nella cultura musicale dell’epoca, aprendo l’era del progressive rock con band quali Yes ed Emerson, Lake & Palmer – in Italia ne abbiamo una memorabile registrazione nelle “Impressioni di Settembre” della Premiata Forneria Marconi.
Gli strumenti di Robert Moog finora riportati sono monofonici: la polifonia nei sintetizzatori viene introdotta da un “allievo” di Moog, il progettista elettronico Dave Smith, che fonda la compagnia Sequential Circuits.
Il primo sintetizzatore polifonico, Prophet-5, vede la luce nel 1978: la tecnologia elettronica era avanzata abbastanza perché fosse possibile distribuire le note suonate sulla tastiera su altrettante unità sonore, e produrre così accordi e trame musicali più complesse dallo stesso strumento.
Gli anni ’80 vedono l’esplosione del mercato dei sintetizzatori: si diffondono i primi modelli davvero economici con il diminuire dei costi della tecnologia; è diffuso lo standard MIDI, un metodo di comunicazione per collegare sintetizzatori fra loro; la rivoluzione tecnologica dei calcolatori elettronici e dei circuiti integrati fa sì che la generazione dei suoni non avvenga più tramite circuiti oscillatori elettrici, ma per riproduzione ed elaborazione di frammenti sonori memorizzati all’interno del sintetizzatore, sempre più simile nelle sue componenti ad un computer specializzato per la musica.
Ad oggi, seppure le sonorità dei sintetizzatori vintage siano ricercate, gran parte della produzione avviene sul computer: i suoni sono generati da strumenti software completamente integrati nel sistema di registrazione. Così prendono forma gran parte dei successi che scalano le classifiche della musica leggera oggi.
SITOGRAFIA:
Vintage Synth Explorer
A Brief History of Synthesizers
Sintetizzatore (Wikipedia)
Tue 29 Jun 2010
L’ “Elogio della pirateria”: un libro da leggere
Posted by Giacomo Zocca under hackers , internet , informatica , cyberspace , weblog (blog) , etica dell'informazione , web e società
1 Comment
Un saluto a tutti i visitatori del blog di Informatica per le Scienze Umane del prof. Dino Buzzetti.
Con questo mio articolo vorrei divulgare a tutti voi il messaggio di protesta che ho avuto il privilegio di recepire dalla lettura del libro di Carlo Gubitosa “Elogio della Pirateria-Dal Corsaro Nero agli Hackers-Dieci storie di ribellioni creative” uscito nel 2005 con la prefazione di Paolo Attivissimo. Prima di iniziare la mia breve presentazione, ci tengo a precisare che il libro è facilmente scaricabile da vari siti internet grazie alla licenza “Creative Commons” con la quale è stato rilasciato: da come si può leggere sopra le note editoriali nella primissima pagina “questo libro è libero, e può essere riprodotto e distribuito, con ogni mezzo fisico, meccanico o elettronico, a condizione che la riproduzione del testo avvenga integralmente e senza modifiche, ad uso privato e a fini non commerciali”.Il libro racconta le esperienze di quelle persone che la società odierna definisce come criminali sovversivi, colpevoli di gravi reati che li accomuna: la curiosità , la sete di sapere, la diffusione della conoscenza, la volontà di libertà intellettuale. Queste persone sono i moderni “pirati”informatici :veri e propri paladini del diritto ,ribelli che sfidano le obsolete leggi del copyright in nome della libera circolazione delle informazioni , programmatori brillanti che il sistema giudiziario non distingue dai ladri e delinquenti comuni. Con la lettura dell’ “Elogio della Pirateria” cresce sempre più nella mente del lettore il paradosso per cui coloro che sono i fuorilegge della società sono essi stessi gli unici a poterla salvare dal collasso; ma ,come scrive giustamente l’autore nell’introduzione ,tale parodosso è comune ad ogni epoca storica, in cui “criminali ribelli ” sono proprio coloro che apportano progresso e spingono il presente a fare un passo più in là verso il futuro. Il libro è diviso in 10 capitoli , ognuno dei quali descrive una pratica di pirateria differente: da quella televisiva e radiofonica a quella musicale , da quella agroalimentare e farmaceutica a quella culturale. Più utile ai nostri scopi è forse il quarto capitolo che riguarda la pirateria informatica, ovvero la copia ad uso personale e senza scopo di lucro del software, il libero scambio di programmi e la mutua cooperazione tra utenti di sistemi informatici, pratiche che esistono da sempre nel mondo dell’informatica ma che le grandi compagnie produttrici vogliono rendere fuorilegge dietro la maschera burocratica del copyright ricavandone benefici economici. Veramente appassionanti sono i due “manifesti hacker” che si possono leggere in questo capitolo: il primo è scritto dal misterioso pirata del software noto con il nickname “The Mentor”nel1986 ,mentre il secondo è una “dichiarazione di indipendenza del ciberspazio” scritta dieci anni dopo da Perry Barlow (cantante dei Grateful Dead). Le parole dei due “hackers” trasportano il lettore direttamente nel Cyberspace, “la casa della mente” nella quale si realizza ciò che nella realtà sembra impossibile, e cioè il libero scambio di conoscenza e informazioni. Ma allo stesso tempo essi avvertono che quel mondo magnifico che si è creato spontaneamente e nella collettività, è minacciato dall’esterno, dal mondo reale che vuole incatenarlo e sfruttarlo come una qualsiasi fonte economica.
Concludo questo mio breve articolo con la speranza di aver contribuito alla segnalazione e quindi alla diffusione di questo libro a mio parere molto attuale ed interessante .
Ciao a tutti.
“E’ pericoloso aver ragione quando le autorità costituite hanno torto”.
[Voltaire]
Bibliografia:
-Carlo Gubitosa, “Elogio della Pirateria - Dal Corsaro Nero agli hacker - dieci storie di ribellioni creative”, Terre di Mezzo, 2005.
Sitografia:
-
-
-
Tue 29 Jun 2010
Problemi di menti e macchine
Posted by Federico Farnè under intelligenza artificiale
No Comments
Sono passati sessant’anni dalla pubblicazione di Turing Computing Machinary and Intelligence, in questo saggio il matematico inglese tentò di stabilire, senza il rischio di affondare tra le sabbie mobili della filosofia e della teologia, in che modo una macchina poteva essere considerata intelligente. A tale scopo propose un test secondo il quale se si fosse riusciti a creare un programma talmente sofisticato da far sì che un interlocutore mediamente intelligente non fosse in grado di distinguere se stava conversando con una persona o una macchina, allora avremmo potuto dire che la macchina pensa. Questa posizione per quanto affascinante e gravida di conseguenze (basti pensare agli enormi progressi della linguistica computazionale) risente tuttavia di un forte riduzionismo; ritenre valido questo test significa infatti considerare il pensiero e il ragionamento come un processo algoritmico e nient’altro. Turing e Von Neumann congetturarono infatti che la nostra capacità di fare tante cose diverse, sia dovuta alla presenza nel nostro cervello di un calcolatore universale ed è innegabile che l’ipotesi che vi sia qualche tipo processo algoritmico che accede all’informazione richiesta partendo da una base di dati che abbiamo nel cervello è, almeno a prima vista molto attraente. Tuttavia a oggi non possiamo asserire niente di esatto riguardo al funzionamento del nostro cervello e i programmi di simulazione del pensiero tentati fin’ora sono ben lontani dalle aspettative di Turing. Il problema è che non sappiamo esattamente cosa stiamo simulando: non sappiamo abbastanza dell’oggetto - la mente -, di cui stiamo cercando modelli, per avere teorie precise che possano essere verificate dall’elaboratore. In questo modo si cade in una circolarità dalla quale è difficile uscire da una parte capire come l’uomo esegua compiti sofisticati è un punto di partenza importante per la scoperta di programmi che riescano a fare altrettanto, dall’altra facciamo appello alla simulazione da parte dell’elaboratore perchè non capiamo come questi compiti vengano svolti. Il problema è che ci manca la conoscenza di come funzioni l’uomo nei particolari, seppur abbiamo una buona conoscenza delle strategie generali. La simulazione poichè è solo a livello globale, dipende dalla teoria di ciascun individuo su come l’uomo opera in maniera generale e non possiede la qualità di riprodurre fedelmente come il termine “simulazione” invece suggerisce e questo mette in luce un’instabilità di fondo del concetto. si può pensare allora di cercare l’intelligenza nelle macchine in campi che esulino completamente dal linguaggio, si è tentato infatti di cercarla nei programmi che giocano a scacchi, tuttavia come mette bene in luce Searle in una critica a un libro divulgativio di Ray Kurzweil, riprendendo l’epserimento della stanza cinese: “Ecco che cosa succede dentro Deep blue (programma di scacchi che nel 1996 ha sconfitto il campione del mondo Kasparov nda). Il programma possiede un mucchio di simboli privi di significato che i programamtori usano per rappresentare le posizioni dei pezzi sulla scacchiera e un altro mucchio di simboli, anch’essi privi di significato, che vengono usati invece per rappresentare scelte di mosse possibili. Ma non sa che i simboli rappresentano pezzi e mosse degli scacchi, perchè non sa niente.”.
Tue 29 Jun 2010
cosa/se
Posted by Michela Guerra under intelligenza artificiale
No Comments
bibliografia: “Godel, Escher, Bach: un’eterna ghirlanda brillante” di Douglas R. Hofstadter
Tue 29 Jun 2010
Cosa/se
Posted by Michela Guerra under intelligenza artificiale
No Comments
Se un programma di intelligenza artificiale fosse in grado di battere qualsiasi avversario al gioco degli scacchi, questo stesso programma un giorno potrebbe rifiutarsi di giocare, per noia. -Perchè non chiaccherare di poesia contemporanea?- Potrebbe rispondere. Sarebbe, infatti, un programma dotato di un’intelligenza generale, non focalizzata solamente sulla scacchiera, bensì in grado di spaziare e di interessarsi ad altro. Un’intelligenza in grado di trovare soluzioni creative non si limita a ripetere ciò che già sa (in questo modo diventerebbe presto obsoleta), dovrebbe esser in grado di apprendere. E questo comporta che sia curiosa e molto probabilmente che abbia un libero arbitrio. Dovremmo, per riuscire a creare un’intelligenza artificiale di questo tipo, riuscire a ricreare un meccanismo che riproduca il groviglio neuronico del nostro cervello. Groviglio neuronico che poi dovrebbe portare a un grovglio di simboli. I nostri ragionamenti, anche quelli più logici non sono così lineari e ordinati come potremmo pensare. La caratteristica però che più difficilmente riusciremmo a riprodurre sarebbe, probabilmente, la nostra capacità di “creare mondi al congiuntivo”. Il nostro utilizzo del “SE” e dei periodi ipotetici è del tutto naturale e spontaneo ma è fondamentale per essere ciò che siamo. Il “se” è in grado di aprire nuove prospettive rispetto a una negazione.
“Come sarebbe piatta e morta una mente che non sapesse scorgere in una negazione nient’altro che un’paca barriera . Una mente viva vi può vedere una finestra che si affaccia su un intero mondo di possibilità.”( D.R. Hofstadter). Insomma le proposizioni condizionali sono fondamentali per la dinamica del modo di sentire degli uomini. E’ difficile riuscire a imaginare come si potrebbe trasferire questa nostra peculiare capacità su un sistema artificiale. Il funzonamento del “processo ipotetico” infatti, non è chiaro nemmeno a noi. I simboli che utilizziamo si attivano in modo non gerarchico, bensì eterarchico. Quale sarebbe il criterio ultimo allora a cui dovrebbero rifarsi tutti i nostri processi mentali? A quanto pare non esiste. In realtà stiamo entrando in un circolo vizioso, uno strange loop. Dovremmo, infatti, riuscire a guardarci da fuori per trovare quello che stiamo cercando. Continuiamo a guardare noi stessi eppure non possiamo farlo che con i nostri occhi e la nostra logica. C’è per forza qualcosa che ci sfugge. Il folle, ripercorendo i propri ragionamenti tappa per tappa non li troverà forse dettati da una logica stringente? Ma facciamo un passo indietro. Se davvero riuscissimo a creare un’intelligenza artificiale in grado di eguagliare quela umana questo non comporterebbe necessariamente creare una macchina dotata di libero arbitrio? E allora come potranno le macchine prostrarsi al servizio dell’uomo? E noi non avremmo problemi etici a sfruttare esseri dotati di consapevolezza e forse di coscienza?(No probabilmente ma sarebbe umano se ne avessimo.) I film e la letteratura di fantascienza ci hanno aperto numerose prospettive su quello che poterbbe succedere SE una tale eventualità si avverasse. Forse davvero sarebbe la macchina il passo successivo dell’evoluzione.Forse davvero un giorno saremo responsabili della creazione di una super-intelligenza. Ma allora, saremmo in grado di comprenderla?E ancora: lei sarebbe disposta a lavorare per noi? E se no, quali sarebbero le conseguenze? E quale lo scopo per cui l’avremmo creata? Probabilmente siamo così impegnati nella costruzione di un’intelligenza artificiale perchè è un altro modo in cui cerchiamo di comprendere noi stessi. Forse è solo uno stimolo in più per cercare di orientarci in quel groviglio di neuroni e simboli che forma la nostra mente. E allora ben venga. Ma dovremo pensare anche alle infinite e imprevedibili conseguenze che alcune scoperte potrebbero prtare con sè.
Bibliografia: “Godel, Escher, Bach: un’eterna ghirlanda brillante” di Douglas R. Hofstadter
Tue 29 Jun 2010
Yoani Sánchez
Posted by Maddalena Casarini under web e società
No Comments
“Generación Y è un Blog ispirato alla gente come me, con nomi che cominciano o contengono una “y greca”. Nati nella Cuba degli anni 70 e 80, segnati dalle scuole al campo, dalle bambole russe, dalle uscite illegali e dalla frustrazione. Per questo invito a leggermi e a scrivermi soprattutto Yanisleidi, Yoandri, Yusimí, Yuniesky e altri che si portano dietro le loro “y greche”.
Yoani Sánchez è l’esempio di come attraverso l’utilizzo del blog si possa informare, fare giornalismo e combattere la censura. iIl blog di Yoani Sanchez si chiama “Generacion Y “ ed è diventato famoso per il coraggio con cui descrive la realtà cubana superando le barriere del regime e della disinformazione.
Yoani Sanchez è nata nel 1975 all’ Havana , città in cui ha studiato letteratura e filologia. Dopo un soggiorno di due anni in Svizzera, decise di tornare a Cuba per vivere nella sua città natale.
Sanchez lanciò il suo blog Generacion Y il 9 aprile del 2007, che venne ospitato in Germania in un dominio chiamato Cronon AG. In seguito Generación Y è organizzato sul software libero Wordpress, scaricato gratuitamente da http://www.wordpress.org e anche il server dove è ubicato è basato sul programma a licenza libera Linux. La home page di Desdecuba.com è costruita su un altro sistema aperto e gratuito chiamato Joomla.
Nel suo blog la giornalista cominciò a descrivere la vita cubana, ma decise di farlo con moderazione e con toni rispettosi, chiedendo a chi lasciava commenti di fare altrettanto. Nel 2007 apparse un articolo sul Wll Street Journal che accrebbe notevolmente la fama del blog. L’articolo era intitolato Cuban Revolution: Yoani Sánchez fights tropical totalitarianism, one blog post at a time. Nello stesso anno anche El Pais, Die Zeit e il New York Times cominciarono a parlare di Generacion Y.
Nel 2008 il governo di Cuba censurò il blog all’interno del paese, e questo naturalmente accrebbe enormemente la fama del blog.
“Questo blog non riceve finanziamenti né aiuti da partiti politici, governi e organizzazioni di carattere ideologico. La sua natura è indipendente e autonoma, si è sviluppato e si mantiene grazie alla solidarietà cittadina e alla mia spinta personale, per questo sarà online fino a quando avrò storie da raccontare e voglia di continuare a pubblicarle nel ciberspazio” scrive Sanchez, esprimendo molto bene quelle che sono le possibilità del blog, possibilità di indipendenza, possibilità di non entrare in circuiti di clientelismo politico e di autocensura.
Sanchez ha ottenuto premi di giornalismo come il premio “Ortega Y Gasset” ed è stata selezionata dalla rivista “Time” come una delle persone più influenti del 2008”.
Il giornale italiano “l’internazionale” pubblica ogni settimana una rubrica firmata dalla giornalista cubana.
sitografia:
http://it.wikipedia.org/wiki/Yoani_S%C3%A1nchez
http://www.internazionale.it
http://www.desdecuba.com
— Next Page »
About the Site:
Attività pratica associata al corso
Links
-- Il blog: natura e finalità di questo blog
-- Il blog: cattivi esempi
Bibliografia e materiali
Extensible Markup Language
Text Encoding Initiative
Weblog (da 'Internet 2004')
Wiki (dal sito ufficiale)
Word Wide Web Consortium
Pages
Yoani Sánchez
Categories:
– blog (3)
filosofia: favola o argomentazione? (7)
computazione (22)
intelligenza artificiale (58)
hackers (23)
testo digitale (38)
motori di ricerca (16)
web (62)
linguaggi di markup (8)
internet (88)
comunicazione (84)
software (40)
tecnologia (43)
informatica umanistica (50)
web semantico (32)
informatica (41)
ontologie (15)
biblioteche digitali (21)
rappresentazione della conoscenza (14)
cyberspace (30)
Realtà Virtuale (13)
digital divide (10)
multimedia (27)
infosfera (7)
teoria delle reti (3)
wikipedia (8)
informatica giuridica (14)
complessità (6)
ipertesto (19)
linguaggi di programmazione (3)
bioinformatica (6)
weblog (blog) (9)
robotica (9)
letteratura e computer (18)
appunti del corso (2)
arte (21)
estetica (8)
ergonomia (2)
tecnica (3)
filologia computazionale (1)
social networks (17)
e-book (13)
etica dell’informazione (20)
filosofia dell’informazione (3)
teoria dei calcolatori (2)
web e società (13)
Search:
Monthly:
July 2010 (2)
June 2010 (20)
May 2010 (7)
April 2010 (16)
March 2010 (22)
February 2010 (18)
January 2010 (9)
December 2009 (1)
November 2009 (17)
October 2009 (6)
September 2009 (11)
August 2009 (1)
July 2009 (6)
June 2009 (7)
May 2009 (19)
April 2009 (1)
March 2009 (24)
February 2009 (15)
January 2009 (16)
December 2008 (10)
November 2008 (17)
October 2008 (10)
September 2008 (10)
July 2008 (8)
June 2008 (19)
May 2008 (29)
April 2008 (1)
March 2008 (8)
February 2008 (2)
January 2008 (11)
December 2007 (18)
November 2007 (27)
October 2007 (1)
September 2007 (15)
August 2007 (1)
July 2007 (4)
June 2007 (12)
May 2007 (25)
April 2007 (10)
March 2007 (3)
February 2007 (32)
January 2007 (20)
December 2006 (8)
November 2006 (7)
October 2006 (6)
May 2006 (2)
April 2006 (2)
March 2006 (2)
February 2006 (1)
January 2006 (4)
November 2005 (1)
October 2005 (4)
RSS Feeds:
Posts | Comments
Meta
Login
Valid XHTML
Valid CSS
XFN
WordPress
De