strategie evolutive

ciò che non ci uccide ci lascia storpi e sanguinanti


11 commenti

Cinque anni di Fantascienza, Fantasy e Horror in Italia

Nota: pubblico di seguito, opportunamente modificata, l’appendice al mio prossimo articolo nella lunga serie Storia Naturale della Letteratura Fantastica, che uscirà prossimamente sul numero 50 della rivista LN.

Per una discussione più estesa – e per dare un’occhiata al materiale che mi ha portato alle seguenti considerazioni, rimando tutti gli interessati al numero 50 di LN.

Il discorso, comunque è questo – pare che nessuno abbia mai fatto un serio studio statistico dei dati accumulati nel corso degli anni nel Catalogo Vegetti.
Eppure, avendo accesso diretto al database che sottende le pagine web, sarebbe facile – relativamente facile – estrarre le informazioni utili e poi macinarle con un buon software statistico.
Sapendo cosa cercare.
E come cercarlo.

Mentre lavoravo all’articolo per il prossimo LN, consultando come sempre massicciamente il Vegettalogo, una mezza idea, un dubbio, si è insinuato nel mio cervellino deviato di analista di dati statistici.
Una curiosità, suggerita dai numeri che costellavano i paragrafi che stavo scrivendo.

Quanto segue è un tentativo – basato sull’analisi di un pool limitato di informazioni estratte dal Cataloge Vegetti nella maniera più disagevole possibile ed elaborato usando Gnumeric – di cercare una conferma al dubbio suscitato dalle osservazioni.
Il dubbio – è una mia impressione, o più si avanza nel ventesimo secolo, o più la forbice fra data di prima edizione del romanzo in originale e prima edizione italiana si allarga?

O, per metterla in altre parole, è una mia impressione, o le novità arrivavano prima sui nostri scaffali negli anni ’60 e ’70 rispetto a quanto non accada ora?

E, strettamente connessa a questa, la seconda osservazione – è una mia impressione, o stiamo affogando nelle ristampe?

Per dirimere questo dubbio, ho estratto dal catalogo Vegetti i dati – quando disponibili – relativi all’uscita in originali di romanzi o raccolte di racconti tradotti per la prima volta, o ritradotti ex novo, in cinque anni del secolo scorso: il 1960, il 1970, il 1980, il 1990 ed il 2000.

I volumi considerati sono in totale

  • 1960 – 62 titoli
  • 1970 – 72 titoli
  • 1980 – 196 titoli
  • 1990 – 324 titoli
  • 2000 – 352 titoli

Sono stati esclusi i titoli di autori italiani e le collezioni oantologie create ex novo da curatori italiani – essendo questo un lavoro sui tempi di traduzione.
Dal conteggio sono stati parimenti esclusi tutti i titoli precedenti al 1900, e per ciascun romanzo è stata rilevata la data di prima pubblicazione.
Questo valore (la data di uscita in originale) è stato sottratto all’anno di riferimento, per rilevare lo scarto fra uscita in originale e pubblicazione in italiano.
Per ciascun anno è stato quindi calcolato semplicemente il tempo di attesa medio fra pubblicazione in originale e uscita in Italia.
I valori ottenuti sono:

  • 1960 —->  7,2 anni
  • 1970 —->  6,0 anni
  • 1980 —-> 11,3 anni
  • 1990 —-> 16,0 anni
  • 2000 —-> 12,5 anni

https://i0.wp.com/www.fantascienza.com/magazine/imgbank/ARTICOLI/6_n200.jpgIn altre parole, un romanzo (o antologia) di genere fantastico pubblicato nel nostro paese nel 1960 era uscito in lingua originale, in media, attorno al 1953; uno pubblicato nel 1990 era uscito in lingua originale più o meno nel 1974.
O se preferite girare la cosa in un altro modo – nel 1988, un appassionato interessato ad un certo titolo appena uscito in America avrebbe dovuto aspettare probabilmente fino al 2000 per poterlo leggere in italiano. Suo padre nel 1953 avrebbe dovuto aspettare solo fino al 1960.

Naturalmente, si tratta di medie, e quindi di misure discutibili – in ciascuno degli anni considerati, esistono titoli usciti in italiano meno di sei mesi dopo aver visto la luce. Ma tali estremi sono bilanciati, sul versante opposto, dall’uscita di libri che sono rimasti nel dimenticatoio per sessant’anni o più.
Certo il risultato è suggestivo.
Per risolvere il problema dell’asimmetria dei dati (libri usciti quasi in contemporanea con gli USA, libri rimasti in lista d’attesa per settanta e più anni), e farci un’idea più chiara, possiamo allora far ricorso al valore della Mediana.
La mediana rappresenta (nel nostro caso) il numero di anni di attesa massimi per il 50 % dei volumi considerati.
In altre parole, se per il 1960 la media è 7 ma la mediana è 3, ciò significa che se è vero che in media, il tempo di attesa nel ’60 era 7 anni, di fatto il 50% dei volumi considerati uscì in meno di 3 anni dalla pubblicazione originale. Abbiamo eliminato (almeno in parte) l’ambiguità dellamedia.
La tabella delle mediane è la seguente:

  • 1960 —-> 3 anni
  • 1970 —-> 3 anni
  • 1980 —-> 5,5 anni
  • 1990 —-> 7 anni
  • 2000 —-> 4 anni

Metà dei libri di genere fantastico/fantascientifico usciti in italia nel 1960 e nel 1970 aveva meno di tre anni.
Metà dei libri usciti nel 1990 aveva meno di 7 anni – e il restante 50%, ovviamente, era molto più vecchio.
O se preferite – praticamente TUTTI i romanzi pubblicati nel 1960 erano più recenti (relativamente) della metà di quelli pubblicati nel 1990.

È tuttavia anche importante far notare che i dati relativi alle ultime tre decadi sono in qualche modo “drogati” – il 1980 è caratterizzato dall’uscita di un elevato numero di romanzi basati su film, tutti pubblicati a ridosso dell’uscita delle pellicole e quindi non più vecchi di 6 mesi.
Il 1990 vede la pubblicazione a cottimo di romanzi collegati al gioco di ruolo, anche questi con un tempo di attesa molto basso – di solito mai più di un anno.
Il 2000 è caratterizzato dalla produzione inmassa di romanzi fantastici per ragazzi (Animorphs, Piccoli Brividi e altro fantasy giovanile) e dai tie-in con serie televisive (StarTrek, Buffy), ancora una volta con un abbassamento artificioso del tempo d’attesa – si tratta di titoli con non più di due anni di età.
Se la tendenza sembra quindi essere, nei cinquant’anni presi in considerazione, da una parte ad un aumento dei titoli pubblicati, ma dall’altra all’allungamento dell’attesa per l’uscita di materiale nuovo, è anche ragionevole immaginareche qualora venissero eliminati gli instant book e I titoli a tema mediatico, la forbice sarebbe probabilmente ancora più ampia.
E la lista considera solo le prime pubblicazioni, o la ristampa in nuova traduzione.
Se aggiungessimo le ristampe fatte paro-paro senza aggiornare la traduzione, il panorama avrebbe probabilmente un aspetto ancora più desolante.
Un altro dato interessante, purtroppo non quantificabile sulla base dei dati usati in questa sede, ma comunque evidente in fase di rilevamento, è lo shift tematico legato ai tempi di pubblicazione.

Nel 1960 e nel 1970, i romanzi pubblicati con più sollecitudine sono di fantascienza.
Nel 1980 la fantascienza comincia a scivolare in secondo piano, e viene data la priorità all’horror, col solito Stephen King pubblicato quasi in contemporanea fra Stati Uniti e Italia (meno di un anno di attesa – un valore che resta stabile nelle due decadi successive).
Tale tendenza si mantiene per gli anni ’90, con la fantascienza ormai ferma in sala d’attesa mentre orrore (King, Koontz e Barker) e fantasy (il ciclo di Dragonlance) vengono tradotti il più rapidamente possibile. In questi stessi anni, la “scoperta” di Philip Dick da parte del mainstream porta alal pubblicazione o alla ristampa di titoli vecchi di oltre trent’anni.
Nel 2000, l’orrore è in contrazione (il tempo d’attesa si sta allungando), il fantasy domina, specie nelle sue varianti giovanili, ed è tradotto con tempi molto stretti, mentre la fantascienza langue con le solite ristampe dickiane.

Ma, avendo adesso verificato la nostra ipotesi, e confermato che sì, negli ultimi sessant’anni i tempi d’attesa si sonoallungati sensibilmente, la domanda successiva, alla quale i numeri da soli non possono rispondere è ovviamente, Perché?

Ma di questo, ci occuperemo magari la prossima volta.


7 commenti

Statistica per tutti

Annuncio una nuova conferenza pubblica.

Lunedì 27 Aprile, alle ore 20,45, presso la SOMS De Amicis di Corso Casale 134, sarà mio piacere (spero!) intrattenere il pubblico sul tema

Come Tarzan nella Giungla dei Numeri:

sopravvivere alla statistica
e vivere felici

Apriremo con una breve carrellata su alcuni momenti topici della storia della statistica, in cui incontreremo la solita allegra accozzaglia di avventurieri e crapuloni – ma anche il cancelliere Bismark.
Poi, passeremo con cautela a personaggi meno urbani, rivolgendo la nostra attenzione agli usi eterodossi ai quali questa pratica dignitosa è stata piegata da politici, giornalisti ed esperti di marketing.

Se la statistica popolare è una giungla, vedremo infine di determinare quale sia il set di regole empiriche che permettano ai comuni cittadini di sopravviverle.
La Legge della Giungla, insomma.

E niente formule matematiche.

L’ingresso è libero, l’atmosfera amichevole.
Partecipate numerosi.

Powered by ScribeFire.


3 commenti

Delirio con Iceberg

Prendo lo spunto dal post su Speculum Maius relativo alla proposta di legge del Mistro Gelmini sulla meritocrazia.
La proposta, tra l’altro, è scaricabile da qui.

Fin dall’inizio, mi viene da storcere il naso…

ONOREVOLI COLLEGHI ! — La presente proposta di legge intende agevolare la diffusione e l’attuazione concreta nella società italiana del principio del merito.

Ora, saranno le mie eterodosse posizioni politiche, ma trovo molto difficile credere che una legge possa radicalmente e concretamente alterare le posizioni della società italiana.
Se la società italiana fosse fondata su principi meritocratici, non servirebbe una legge per inculcarli ai cittadini.
Se serve una legge, questa andrà contro il sentire comune della maggioranza, che farà resistenza – anche inconsciamente.

Diciamocelo chiaro e tondo – ad invocare sistemi di merito sdono i tagliati fuori, non quelli inseriti nelle strutture grazie a nepotismi, spinte, mazzette o semplice capacità di abusare del sistema… `

L’impostazione statalista e dirigista che ha imperniato l’ordinamento degli ultimi cinquanta anni ha portato con se la marginalizzazione del merito, che non e mai`assurto a principio guida in grado di regolare i fenomeni sociali, i processi economici e le relazioni di lavoro, in favore di criteri di uguaglianza formale che, di fatto, si sono tradotti in forti disincentivi alla capacita individuale.

Curioso che si proponga una legge per ovviare alle magagne.
Non una campagna culturale, ma una imposizione per legge – quanto di più statalista e dirigista si possa immaginare.
O no?

Perché poi, a cosa si riduce la proposta?
Nel valorizzare i risultati superiori alla media – misura statistica pericolosissima -, nell’eliminare i meccanismi automatici di avanzamento professionale (bye bye anzianità di servizio), nell’istituzione di fantomatici organismi atti a valutare…

Insomma, un ulteriore layer burocratico, con un forte sentore di ennesima marchetta per le aziende.
Suona particolarmente subdola la voce 4.g

ampliamento della nozione di mansioni equivalenti;

Mah!
Io non mi posso lamentare – anche se sono sicuro che ci sia una trappola da qualche parte – ad una prima lettura questa proposta di legge potrebbe avvantaggiare le mie attività come freelance.
Però…

Nel commentare la proposta di legge, Speculum Maius invoca l’esempio del Titanic – da un articolo di Simone Brero…

A cosa serve al capitano ordinare una virata di emergenza, o al timoniere e al macchinista eseguire l’ordine, se la nave non e’ progettata per effettuare una simile operazione in tempo utile? Esiste un ruolo di leadership, tanto importante quanto trascurato dai dirigenti: quello del leader come progettista. Del resto, nell’ultimo costoso film di James Cameron dedicato alla tragedia del Titanic, il progettista riconosce le proprie responsabilita’, affondando volontariamente insieme alla nave…

http://oceanexplorer.noaa.gov/explorations/04titanic/media/titanic_bow_railing_600.jpgHo spesso usato i dati sui sopravvissuti del Titanic (se ne trovano varie versioni on-line, basta cercare “Titanic Dataset” tramite Google) come eterodosso esercizio per i miei studenti di statistica ambientale.
Di solito mi becco un’infilata di occhiate strane, come se fossi appena sceso da un disco volante – quando va bene: quando va male, i più ortodossi si inalberano perché l’esercizio non è serio.

Eppure, a ben guardare, l’affondamento del Titanic è una catastrofe ambientale, con conseguente estinzione di massa.

E il fatto che ne abbiano fatto un film di grande successo significa oltretutto che tutte le persone in aula sono a conoscenza delle dinamiche dell’evento, e possono quindi affrontare i numeri senza bisogno di lunghi spiegoni.

Ed i numeri dicono chiaro che per sopravvivere sul Titanic, con buonapace di James Cameron, bisognava essere
a . passeggeri di prima classe
b . membri dell’equipaggio

Lasciamo come esercizio per il lettore l’estensione di questa osservazione allo stato del merito in Italia.


3 commenti

Exit poll

https://i0.wp.com/www.emich.edu/ois/statistics.gifÈ più forte di me.
Sento tutta ‘sta gente che statisticola in TV, e mi vergogno di essere in qualche maniera coinvolto con gli studi statistici.

La statistica politica squalifica tutta la categoria, e rinforza l’immagine dello statistico come venditore di fumo.
Oltretutto asservito al potere.

Sarebbe così bello poter parlare di realtà e non di numeri essenzialmente a caso.

La cosa curiosa è che apparentemente nessuno applichi metodi bayesiani – il meglio, in una situazione del genere – e tutti continuino con la solita stupida analisi frequenzialista.
Strana gente.

Interrompiamo qui la discussione.
Vediamo cosa ci riserva la realtà – o una stretta approssimazione di questa.


Lascia un commento

Statisticolare

Questo è uno di quei post che contribuiscono a farmi odiare.
Un dannato pork chop express se mai ne è esistito uno.
Scusatemi.

Durante la nostra ultima discussione, Gamberetta ha citato i dati dell’Istat sui lettori in Italia.
In particolare, l’affermazione che prenderemo in considerazione qui è la seguente…

la percentuale di chi ha letto il suo ultimo libro dopo averlo scaricato da Internet è dello 0,1% (in assoluto, facendo due conti sono 24.145 persone).

Non credo proprio.

Perché è vero, il testo afferma che c sono circa 24 milioni di lettori attivi in Italia, ma i signori dell’istat non hanno chiesto a ventiquattro milioni di persone come si siano procurate il loro ultimo libro.
Lo hanno chiesto ad un campione.
Lo 0,1% di quel campione ha risposto “prelevato gratuitamente via Internet”.
A questo punto, l’Istat ha deciso che il campione era sufficientemente rappresentativo da essere esteso all’intera popolazione di 24.000.000 di lettori.

Il campione considerato dall’Istat è di “circa” 54.000 persone.
Se 1 su mille (lo 0,1%) ha scaricato un libro gratis nell’ultimo anno, fa un totale di 54 persone.
Questo è il nostro unico dato certo.
È lecito a questo punto estendere il risultato alla popolazione e affermare che circa 24.000 persone hanno scaricato un libro nell’ultimo anno?
No.

In prima battuta, si dice di solito che più grande è il campione, maggiore è l’affidabilità del risultato.
Da questo punto di vista, 54.000 sembrerebbe buono – è il 2,25% della popolazione studiata, che non è poi male.
Ma qui c’è l’inghippo.
Perché l’estendibilità non dipende solo dalle dimensioni del campione, ma anche dalla percentuale di persone che hanno risposto in un certo modo alla mia domanda.
Ciò che conta, infatti, è l’intervallo di confidenza – praticamente il margine di errore che io considero accettabile sulla mia previsione.
Complicato?
No, vedrete!

Nell’estendere i risultati dello studio del campione alla popolazione, entra un grado di incertezza.
Se lo 0,1% del mio campione ha risposto “prelevato gratuitamente via Internet”, allora posso prevedere con un certo grado di sicurezza (di solito il 95%) che più o meno lo 0,1% della popolazione risponderebbe “prelevato gratuitamente via Internet” se glielo chiedessi.
Ma quanto vale quel “più o meno”?
Incredibile a dirsi, sta a me deciderlo – e tanto più stretto sarà il margine di errore che io deciderò di accettare, tanto più grande dovrà essere il campione che andrò a studiare.

Allora, nel nostro caso, qual’è l’errore “accettabile”?
Di sicuro, dovrà essere più piccolo di 0,1%, la mia originaria percentuale di risposte.
Diciamo allora che sia un errore di più o meno 0,01% – un margine di errore del 10% sulla mia previsione.
E ora facciamo due conti…

Per essere sicuro al 95% che una percentuale compresa fra lo 0,09% e lo 0,11% della popolazione di 24.000.000 risponda “prelevato gratuitamente via Internet” dovrei averlo chiesto ad un campione di circa diciannove milioni e mezzo di persone.
Chiedo a venti milioni, e sarò relativamente sicuro che 2160-2640 persone abbiano scaricato un libro gratis dalla rete negli ultimi dodici mesi.

Questo è palesemente ridicolo: il campione è troppo grosso, allora allargo le maglie del mio metodo.
Mi accontento di un intervallo di confidenza di più o meno 0,05% (un errore del 50%) nel risultato.
Per essere sicuro al 95% che una percentuale compresa fra lo 0,05% e lo 0,15% della popolazione di 24.000.000 risponda “prelevato gratuitamente via Internet” mi basterebbe averlo chiesto ad un campione di circa tre milioni e trecentomila persone.
Chiedo a tre milioni e mezzo di persone, e sono discretamente certo che 1200-3600 persone abbiano scaricato un libro gratis da internet nell’ultimo anno.

Il campione è ancora enorme, e la mia incertezza sta crescendo.
E vada, mi accontento di un intervallo di confidenza di 0,09% (un errore del 90%) nel risultato.
Per essere sicuro al 95% che una percentuale compresa fra lo 0,01% e lo 0,19% della popolazione di 24.000.000 risponda “prelevato gratuitamente via Internet” dovrei averlo chiesto ad un campione di circa un milione e centoventimila persone.
Chiedo ad oltre un milione di persone e sono discretamente certo che 240-4560 persone abbiano prelevato gratis dei file di testo da internet nell’ultimo anno.

….

Ergo, l’affermazione che 24.000 persone hanno scaricato un testo gratis da internet nell’ultimo anno è statisticamente insignificante.
Potrebe anche essere vera – ma non abbiamo i dati per dimostrarlo.
Un campione di 54.000 individui su una popolazione di 24.000.000 di persone mi fornisce infatti un intervallo di confidenza di 0,42%.
In altre parole, sulla base delle risposte ottenute dal campione, posso affermare che un numero che oscilla fra zero e quasi 125.000 persone ha scaricato file di testo gratis dal web.
Un risultato inammissibile.
Tanto varrebe sparare numeri a caso.

Nei dati Istat sulla lettura pubblicati, qualsiasi valore inferiore all’1% porta con sé un errore troppo grande per poter essere considerato accettabile.

E qui chiudo e vado a dormire….


4 commenti

Tanto per complicarsi la vita

Ho appena scoperto, per puro caso, un altro pezzo di software che promette di rendere le mie giornate molto più piene di qui in avanti.

Si chiama Processing, è freeware e crossplatform, e viene descritto così dai suoi sviluppatori

Processing is an open source programming language and environment for people who want to program images, animation, and interactions. It is used by students, artists, designers, researchers, and hobbyists for learning, prototyping, and production. It is created to teach fundamentals of computer programming within a visual context and to serve as a software sketchbook and professional production tool. Processing is developed by artists and designers as an alternative to proprietary software tools in the same domain.

Un linguaggio per sviluppare rappresentazioni grafiche interattive di dati.
Per ottenere rappresentazioni come questa:

http://it.youtube.com/watch?v=OHUWTerggjE

WOW!

Il classico genere di cosa che ci si aspetterebbe dal Medialab del MIT.
Il classico genere di cosa che potrebbe far fare un salto di qualità alla mia attività di ricerca e di insegnamento.
Il classico genere di cosa che richiede sei mesi e duecento euro di manuali….
[brutta cosa, abituarsi alla manualistica gratuita di SmallTalk….]


3 commenti

Imparare a usare R

L’ho citato nei buoni propositi, giusto?

R è un linguaggio di programmazione orientato alla matematica in generale ed all’analisi statistica in particolare.
Si tratta di una versione open source del linguaggio S, che svolgeva la stessa funzione ma era un software proprietario (non modificabile, estendibile, distribuibile gratuitamente).
R gira sotto Linux/Unix, Windows, MacOS e quant’altro.
Lo si scarica da qui, e si comincia a penare.

Perché, di fatto, R è un software straordinariamente potente, ma tutto fuorché user friendly.
La gestione di dati ed analisi si svolge per riga di comando – come in Unix, o nel vecchio DOS.
E la gestione di dati e analisi non è facile perché, lo ripetiamo, questo è un linguaggio.

Eppure, i pro controbilanciano i contro

    R è potentissimo e flessibile.
    R è ben documentato.
    R è gratuito (controi le svariate centinaia di euro di uns oftware statistico commerciale).
    R si integra con una quantità di altri software.

Per disporsi ad imparare a domare la bestia, ecco un breve elenco del materiale consigliato…

1 . R nella versione 2.6.1
Lo si scarica dalla pagina dell’R-project e si installa seguendo le istruzioni – a seconda del sistema operativo.
E’ piuttosto voluminoso, ma modulare, perciò è possibile installare solo i blocchi che servono.

2 . Una interfaccia grafica
E’ vero che dobbiamo soffrire, ma perché esagerare?)
R Commander e JGR (pronunciato “Jaguar”) sono quelle che per ora mi hanno dato meno problemi.
Il fondamentale editor Emacs può essere utilizzato come interfaccia aggiungendo il plug-in ESS.
Per chi utilizza Linux, RGnumeric potrebbe essere interessante, poiché rende disponibile la potenza di R attraverso l’interfaccia grafica del foglio di calcolo Gnumeric sotto Gnome.
Necessita tuttavia di una quantità di lavoro sui codici sorgente.
Con un po’ d’impegno, è poi possibile utilizzare Eclipse per sviluppare progetti in R.

3 . I manuali di R e dell’interfaccia utilizzata (scaricabili dai siti relativi)

4 . Un buon manuale di base.
Io utilizzo “Laboratorio di Statistica con R”, di Stefano M. Iacus & Guido Masarotto.
Pubblicato nel 2003 da McGraw-Hill, ha il vantaggio di essere snello (meno di 400 pagine), in italiano, e svolge una doppia funzione – insegna la statistica mentre al contempo insegna ad utilizzare R.
Dovrebbe costare meno di trenta euro (considerando che fin qui tutto ilresto è stato gratis…)

5 . Uno o più manuiali di statistica, meglio se specifici per il nostro ambito di applicazione.

6 . Un quaderno a quadretti ed una matita.

7 . Due ore al giorno per un mese.

Da oggi si comincia….


1 Commento

Ancora numeri – i diciotto di Sprague DeCamp

relaxDifficile restare lontano dal computer, dal blog.

Mi prendo un momento di relax e subito mi capita fra le mani il riassunto di una analisis statistica compiuta non sui libri, ma sugli scrittori, e risalente al 1953, quando Lyon SpragueDeCamp fece circolare fra i suoi amici unquestionario per cercaredi costruire l’identikit dello scrittore di letteratura d’immaginazione.

Oh, lo sappiamo, le cose sono cambiate, da allora (o no? vedremo).
Ma un’occhiata ai dati racolti da Sprague De Camp potrebbe darci qualche idea so cosa sia davvero uno scrittore di narrativa fantastica.

Il campione di Sprague DeCamp comprendeva:

  • Isaac Asimov
  • Leigh Brackett
  • Ray Bradbury
  • Edmond Hamilton
  • Robert A. Heinlein
  • Will F. Jenkins (alias “Murray Leinster”)
  • Henry Kuttner
  • Fritz Leiber
  • Frank Bellknap Long
  • C.L. Moore
  • Eric Frank Russel
  • Clifford D. Simak
  • E.E “Doc” Smith
  • George O. Smith
  • Theodore Sturgeon
  • A.E van Vogt
  • Robert Moore Williams
  • Jack Williamson

Diciotto colossi del genere.
Sedici uomini e due donne, di età compresa fra i trentatre e i sessantatré anni.
Tutti con educazione superiore. Due soli laureati all’epoca del questionario, ma tutti ottennero la laurea successivamente.
Otto su diciotto avevano un background scientifico.
Otto su diciotto avevano servito nell’esercito o nella riserva durante la Prima o la Seconda Guerra Mondiale.
Solo nove erano scrittori a tempo pieno, mentre fra i rimanenti nove, quattro avevano un impiego in campo editoriale e quattro incampo scientifico o tecnico.
Impossibile stabilire una media delle ore al giorno passate scivendo, in quanto nessuno teneva il conto.
“Come conteggiare il tempo passato a falciare il prato mentre si pensa alla trama di una storia?”, domanda Sprague DeCamp.
In base a stime più o meno accurate, quattro degli autori a tempo pieno scrivevano dalle 30 alle 115 ore la settimana, con una media di 54 ore.
Gli scrittori part-time scrivevano in un rangestimato dalle 5 alle84 ore la settimana, con una media di 35 (che vuole comunque dire cinque ore al giorno, tutti i giorni).

Parole prodotte all’anno: dalle settantamila alle trecentocinquantamila, con una media di 170.000 per i professionisti; dalle settantamila alle duecentocinquantamila, con una media di 123.000 per gli scrittori part-time.
Non meno del 95% dei lavori prodotti accetato per la pubblicazione alla prima proposta. 100% pubblicato entro due anni.

I tempi sono cambiati davvero?
Forse – ma 170.000 parole è la lunghezza media di un romanzo di Stephen King o di Terry Brooks, che nel ’53 portavano i calzoncini corti.
E settantamila parole pubblicate all’anno è ancora il discriminante volumetrico per distinguere scrittori professionisti da dilettanti con l’hobby della scrittura.

Gli hobby degli scrittori studiati includono: pattinaggio artistico, pesca,suonare la chitarra, la storia naturale, pittura, fotografia, tennis e trafficare con aggeggi meccanici.
ma tutti ammettono di avere poco tempo per i propri hobby.

Unica passione comune a tutti: la lettura.

Libri letti all’anno: da 25 a 300, con una media di 125.

C’è da riflettere, vero?