Salta al contenuto principale


Filosofia e filosofie ha ricondiviso questo.


Scienza aperta: community over commercialization. Di Paola Galimberti per ROARS

@Scienza e innovazione

Negli ultimi 10 anni sono molte le iniziative sviluppatesi a livello europeo a sostegno della scienza aperta. Le politiche stesse di finanziamento dei progetti hanno tracciato un percorso molto chiaro.

Il titolo di questo post riprende il tema lanciato in questi giorni per la Open access week: comunità più che commercializzazione. Ci sembrano particolarmente opportune le domande poste nella call: Cosa si perde quando un numero sempre più ristretto di aziende controlla la produzione di conoscenza anziché i ricercatori stessi? Qual è il costo dei modelli di business che si basano su livelli estremi di profitto? Quando la raccolta e l’uso dei dati personali iniziano a minare la libertà accademica? La commercializzazione può mai funzionare a sostegno dell’interesse pubblico? Quali opzioni per l’utilizzo di infrastrutture controllate dalla comunità esistono già che potrebbero servire meglio gli interessi della comunità di ricerca e del pubblico (come i server di preprint, i repository e le piattaforme editoriali aperte)? Come possiamo spostare il default verso l’utilizzo di queste opzioni orientate alla comunità?


@Filosofia e filosofie

https://www.roars.it/scienza-aperta-community-over-commercialization/Link all'articolo di Paola Galimberti pubblicato da ROARS

reshared this


Filosofia e filosofie ha ricondiviso questo.


Robert Goodin , fondatore ed editore di lunga data del Journal of Political Philosophy , è stato rimosso dal suo incarico presso la rivista dal suo editore, Wiley

@scienza

Goodin ha scritto agli editori associati e al comitato editoriale informandoli del suo licenziamento, e in risposta molti hanno presentato le loro dimissioni, inclusi gli editori associati e i membri del comitato editoriale

https://dailynous.com/2023/04/27/wiley-removes-goodin-as-editor-of-the-journal-of-political-philosophy/

cc @mcp@MariuzzoAndrea@filosofia
in reply to Franc Mac Filosofia e filosofie ha ricondiviso questo.

Antipatico dire: "lo avevamo detto" - ma sta di fatto che lo avevamo detto (domanda 4 qui: https://www.robertocaso.it/wp-content/uploads/2020/12/domandeTA.pdf) in questo convegno dedicato appunto all'idea di fare l'open access pagando per scrivere, ma senza toccare i criteri di valutazione della ricerca: https://aisa.sp.unipi.it/pagare-per-leggere-o-pagare-per-scrivere-un-dilemma-insuperabile/

reshared this

in reply to Maria Chiara Pievatolo Filosofia e filosofie ha ricondiviso questo.

è antipatico, sì... Ma non è antipatico chi lo dice, bensì è antipatico proprio il fatto di doverlo dire... ☹️

@macfranc@poliverso.org@MariuzzoAndrea

Filosofia e filosofie ha ricondiviso questo.


Per una moratoria internazionale sulle intelligenze artificiali gigantesche: Pause Giant AI Experiments: An Open Letter

@eticadigitale

Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.

Grazie a @robertabarone per la segnalazione
cc @filosofia
https://futureoflife.org/open-letter/pause-giant-ai-experiments/

reshared this

in reply to informapirata :privacypride: Filosofia e filosofie ha ricondiviso questo.

non sono competente per giudicare, ma che possibilità ci sono che venga accolta? E da tutti, perché se ad es la Cina non accettasse credo sarebbe un problema, e nessuno vorrebbe lasciare un vantaggio competitivo. Non sarebbe meglio un controllo e verifica sulle applicazioni?

reshared this

in reply to filobus aka hecatonchiri Filosofia e filosofie ha ricondiviso questo.

@filobus non credo serva a molto perché c'è la volontà cieca di fare funzionare questa cosa dell'IA costi quel che costi. Mi interessa però vedere se qualcuna delle aziende coinvolte risponderà, e come

reshared this

in reply to Roberta Barone Filosofia e filosofie ha ricondiviso questo.

@filobus è difficile controllare le applicazioni, per una serie di motivi. Ci stanno provando sia con le leggi che con i regolamenti interni aziendali, ma i sistemi di apprendimento automatico sono molto molto molto difficili da regolare, all'atto pratico.

reshared this

in reply to Roberta Barone Filosofia e filosofie ha ricondiviso questo.

è vero, immagino ci siano degli aspetti "sottili" nel loro funzionamento che possono creare aberrazioni
Nello stesso tempo però mi fa un po' specie tutto questo parlare di ai come rovina dell'umanità, come se ad es non ci fosse il datore di lavoro umano che discrimina i dipendenti messicani o la polizia che se la prende con le persone di colore. E anche lì sono delle scatole nere, vedi il risultato

reshared this

in reply to filobus aka hecatonchiri Filosofia e filosofie ha ricondiviso questo.

approfitto per segnalare questa critica di alla lettera in questione:

«La lettera aperta sulla moratoria dell'Intelligenza Artificiale è fuorviante: rispetto ai pericoli fantascientifici dell'IA ignora i rischi reali.
Disinformazione, impatto sul lavoro e sicurezza sono tutti rischi. Ma non nel modo in cui implica la lettera.»

https://feddit.it/post/193394

reshared this

in reply to filobus aka hecatonchiri Filosofia e filosofie ha ricondiviso questo.

pensa se per paradosso dicessimo "adesso quegli esseri umani non si devono sviluppare perché poi si organizzerebbero e formerebbero il Ku Klux Klan"
Potrebbe avere senso... 😀
Ma stiamo cercando di imporre valori morali a un qualcosa nato per essere efficiente. Possiamo farlo a posteriori, giudicando, come si fa in tribunale, in base alle azioni. Possiamo prevenire, ma solo in base al risultato.
1/2

reshared this

in reply to filobus aka hecatonchiri Filosofia e filosofie ha ricondiviso questo.

perché sarà sempre una scatola nera, temo, è fatto per esserlo, lo vogliamo noi, che faccia cose al dii sopra delle nostre possibilità (le ai possono essere comprese veramente solo da altre ai).
Il problema delle ai è che se sbagliano lo fanno alla grande, in modo molto più efficiente di noi. E noi potremmo non essere in grado di capirlo
Alla fine è l'uomo che deve diventare più intelligente
2/2

reshared this

in reply to filobus aka hecatonchiri Filosofia e filosofie ha ricondiviso questo.

@filobus ok, ma stai antropomorfizzando una serie di algoritmi e di sistemi di analisi basate su dati statistici 😅

@robertabarone@eticadigitale@filosofia

reshared this

in reply to informapirata :privacypride: Filosofia e filosofie ha ricondiviso questo.

no, sto deantropofizzando l'uomo 😉
Siamo ancora alla visione tolemaica, in cui l'uomo è al centro di tutto
Se l'intelligenza è in procinto di non essere più un bene esclusivo, bisogna dotarsi di teorie più universali
(Per adesso a livello di paradosso, siamo ancora lontani)

reshared this

in reply to Roberta Barone Filosofia e filosofie ha ricondiviso questo.

@filobus
Partendo dal presupposto che non sono certo io che so se lo sviluppo delle AI sia giusto o sbagliato (pericoloso o utile etc.), a me questa cosa sembra fatta da un gruppo di rosiconi. Se Musk fosse stato in grado di arrivare per primo a sviluppare una AI ad un livello come quello di GPT-4 "or beyond", l'avrebbe fatta cadere dall'alto come la "migliore cosa possibile".

reshared this

in reply to MarcoAl Filosofia e filosofie ha ricondiviso questo.

@marcoal AHAHAHA, questo è certo, ma mettiti pure nei panni di chi ha proposto questa moratoria: che fai? Se hai l'occasione di coinvolgerle il Trend-Man del decennio, non lo fai?!? 😂

@robertabarone@filobus@eticadigitale@filosofia

reshared this

Unknown parent Filosofia e filosofie ha ricondiviso questo.

❄️ freezr ❄️
@spiritum

Io credo dipenda dalla mia istanza che permette post di 2500 caratteri circa.