The media in this post is not displayed to visitors. To view it, please go to the original post.

In Estonia c'è anche una Kallas intelligente: l'Europa dovrebbe regolamentare le grandi aziende tecnologiche invece di vietare ai bambini l'accesso ai social media.

Vietare ai ragazzi l'uso dei social media non funzionerà, perché "troveranno molto rapidamente il modo di aggirare il divieto e di continuare a utilizzarli", ha dichiarato la ministra dell'Istruzione estone Kristina Kallas.

politico.eu/article/europe-sho…

@informatica

Grazie a @stefan per la segnalazione

in reply to Phelipe

Not to speak for @informapirata here, and maybe this could use a bit more nuance, but you really can't argue these are the same things.

Internet is a necessity in today's age, almost on the level of electricity. Many of us need it for work, to pay bills, to stay in touch with families.

And for many, being able to find friends and support online is, without exaggeration, a question of survival.

stefanbohacek.online/@stefan/1…

@mrphelz @informatica


"Before TikTok, Tumblr or LiveJournal, before widespread computer ownership or the web itself, trans people were connecting online, allowing them to talk to people like themselves.

For many, this was the first time. The earliest forums offered an invaluable space for people whose innate sense of being trans clashed with the prevailing culture. But there, in cyberspace, they built community and friendships."

assignedmedia.org/breaking-new…

#internet #TheWeb #cyberculture #trans #TransRights #LGBTQI


reshared this

in reply to Stefan Bohacek

@mrphelz
Internet and today's social media are two separate topics. No one wants to forbid the Internet. On the other hand today's social media do more harm than good and youngest is the mind, higher are the risks.
Instagram, TikTok, etc directly impact teens mental health. Not just. Their physical activity has plummeted, their fine-motion skills have alarmingly deteriorated to the point that we may not have surgeons in two decades.
in reply to Phelipe

A me è capitato di vedere al supermercato adulti che acquistavano alcol per poi passarlo a minorenni che aspettavano all'esterno. In più, sere fa, alcuni ragazzini mi chiesero la tessera per acquistare sigarette al distributore, e dissi di no. Un tizio che passava subito dopo di me, gliele prese senza battere ciglio. Non credo che il divieto sia efficace al 100%.
Questa voce è stata modificata (3 settimane fa)

Informa Pirata reshared this.

in reply to Phelipe

secondo questa logica dovremmo che so togliere il divieto di vendere alcolici, o sigarette, o riviste pornografiche ai minorenni, tanto trovano il modo di aggirare i divieti e ci arrivano ugualmente.


@Phelipe ci sono alcune differenze tra il divieto di vendere alcolici, sigarette o riviste pornografiche ai minori e la verifica dell'età:
Come ben sai infatti i ragazzi possono trovare alcolici, sigarette o riviste pornografiche in casa propria o in casa d'altri: e allora pensa se fosse necessario per chiunque dimostrare la propria età, ogni volta che bevi un Campari, fumi un sigaro o sfogli una rivista pornografica e non solo quando li devi acquistare.

Capisci che a essere fallace è proprio questa similitudine.

Oggi purtroppo la politica:
- sta facendo finta che non esistano le responsabilità delle BigTech
- sta facendo finta che non esistano le responsabilità genitoriali
- sulla base di questa finzione, sta provando a limitare la libertà personale di tutti gli adulti
- sta criminallizzando la pornografia e la sta rendendo una merce meno accessibile e quindi più ambita

Automatic translation

According to this logic, we should lift the ban on selling alcohol, cigarettes, or pornographic magazines to minors, since they find ways to circumvent the bans and get there anyway.


@Phelipe There are some differences between the ban on selling alcohol, cigarettes, or pornographic magazines to minors and age verification:
As you well know, young people can find alcohol, cigarettes, or pornographic magazines in their own homes or in other people's homes. So imagine if it were necessary for everyone to prove their age every time they drank a Campari, smoked a cigar, or browsed a pornographic magazine, not just when they had to buy them.

You realize that it is precisely this similarity that is fallacious.

Unfortunately, today's politicians:
- are pretending that Big Tech's responsibilities don't exist
- are pretending that parental responsibilities don't exist
- based on this pretense, they are trying to limit the personal freedom of all adults
- are criminalizing pornography and making it a less accessible and therefore more desirable commodity

@informapirata ⁂ @Stefan Bohacek @Elena Brescacin

in reply to Informa Pirata

1. se vieti x (qualunque cosa sia x) ai minori (online o nella vita vera) è implicito che devi verificare l'età; senza verifica non ha senso il divieto.
2. il mio post non era sulla verifica dell'età, era sulla fallacia di non fare una legge con la scusa che tanto la gente la aggira; è come dire "non mettiamo i limiti di velocità perchè tanto la gente non li rispetta".
Questa voce è stata modificata (3 settimane fa)
in reply to Phelipe

@informapirata@poliverso.org @elettrona
4. sono il primo a sostenere che la prima responsabilità è dei genitori (sono padre di 2 adolescenti), ma basta un ragazzo di cui i genitori se ne fregano e tutti quelli del suo gruppo sono automaticamente esposti senza filtri a tutta internet.
se la prima responsabilità è dei genitori allora bisogna cominciare a punire severamente i genitori che non se la assumono (e purtroppo sono tanti)
in reply to Phelipe

@informapirata@poliverso.org @elettrona
per esperienza personale, c'è un sacco di genitori che danno ai figli dispositivi senza avere la più pallida idea ne di quello che ci si può fare ne di quello che effettivamente ci fanno i figli.
posso citarti l'esempio di un padre, membro di una forza di polizia, che straparla di quali siano i rischi online senza sapere che la figlia adolescente chatta con sconosciuti su snapchat
in reply to Phelipe

@mrphelz
La stessa contestazione si potrebbe applicare alla guida di veicoli: sono capitati incidenti con minorenni alla guida.
Per l'auto però ci sono regole stringenti, nessuna verifica dell'età (chiunque può sedersi al volante e avviare il motore) e obblighi, conseguenze e responsabilità chiari.
Le case automobilistiche sono vive e vegete nonostante vengano regolate anche le dimensioni degli specchietti e il colore delle lampadine.
@informapirata@poliverso.org @informapirata @stefan @elettrona

reshared this

in reply to Phelipe

@mrphelz
I produttori di auto devono rispettare standard a protezione degli occupanti (cinture, airbag, deformazione programmata in caso di urto): se non li rispettano, l'auto non può circolare.
i social invece non hanno regole, non vogliano regole e se qualcuno fa o subisce danno sono fatti suoi.
Ecco il vero doppio standard.
@informapirata@poliverso.org @informapirata @stefan @elettrona
in reply to Phelipe

@mrphelz
Così su due piedi:
Obbligo di X moderatori umani ogni Y utenti.
Divieto di vendita dei dati pubblicitari a terzi

E a chi dice che così si rende il business social insostenibile (poverini), faccio presente che hanno guadagni enormi per pagare moderatori e assorbire i mancati introiti e comunque, se una qualunque attività non riesce a rispettare regole minime per non creare danni alla società, tale attività non dovrebbe esistere.
@informapirata@poliverso.org @informapirata @stefan @elettrona

in reply to Phelipe

@Phelipe

se vieti x (qualunque cosa sia x) ai minori (online o nella vita vera) è implicito che devi verificare l'età


Le piattaforme sono già in grado di stabilire se il tuo profilo è quello di un minore o di un maggiorenne. La verifica dell'età è solo un ulteriore occasione di mietitura di dati personali

il mio post non era sulla verifica dell'età, era sulla fallacia di non fare una legge con la scusa che tanto la gente la aggira; è come dire "non mettiamo i limiti di velocità perchè tanto la gente non li rispetta"


Quello del limite di velocità è un paragone non valido, perché la velocità non è un prodotto. Molto meglio quello relativo all'alcol. Infatti proibire la vendita ai minori nei negozi funziona proprio perché i negozi sono un luogo fisico e numericamente limitato. Nel caso di internet invece è possibile accedere a qualsiasi contenuto disponendo di scarse competenze. Quindi la responsabilità deve essere soprattutto parentale

  1. come dovrebbero fare le aziende a regolamentarsi senza un modo per verificare l'età?


Per esempio impedendo di praticare un modello operativo che non sia come ora finalizzato proprio a manipolare le menti più fragili e malleabili, e non solo quelle dei minori

  1. basta un ragazzo di cui i genitori se ne fregano e tutti quelli del suo gruppo sono automaticamente esposti senza filtri a tutta internet.


La responsabilità genitoriale è fatta anche di educazione e con educazione si intende anche l'educazione e la frequentazione delle proprie compagnie

allora bisogna cominciare a punire severamente i genitori che non se la assumono


Questa cosa di punire severamente è proprio tipica italiana (come sosteneva Flaiano, se non sbaglio, a proposito degli avvisi con l'espressione vietare severamente perché basterebbe semplicemente la parola punire. Se venissero semplicemente fatti conoscere ai genitori i rilievi penali dell'omessa vigilanza sui social, lo Stato potrebbe già mandare un messaggio forte sull'argomento

se io adulto volessi passare tutto il giorno a scrollare perchè dovresti impedirmelo?


Quelle sono delle deliberate scelte di progettazione intraprese dal Big Tech, che sono consapevoli di quanto siano dannose a livello individuale e pericolose su un livello sociale e democratico. Non vedo perché non dovrebbero essere vietate

quindi togli ai social l'uso del principale mezzo che hanno per fare soldi, tanto vale farli chiudere d'ufficio.


Premesso che questo non è certamente un mio problema e non è un problema né per la cittadinanza né per lo stato, posso dirti che Impedire un modello di business predatorio e dannoso, e soprattutto senza che chi eroga quei servizi ne paghi mai le conseguenze, dovrebbe essere quasi scontato

@informapirata ⁂ @Stefan Bohacek @Elena Brescacin

reshared this

in reply to informapirata ⁂

No, invece, secondo me non lo trovano il modo così facilmente. Non tutti, in ogni caso. I divieti di cui si parla in questo momento interessano gli under 15. E, rispetto alle precedenti, questa è una generazione a cui viene spiegato tutto, non viene mai lasciata da sola a provare, sperimentare, farsi male, etc.
Sono molto più restii a disobbedire.
E i genitori avrebbero le app di controllo parentale per impedirgli di installare ciò che vogliono.
Unknown parent

mastodon - Collegamento all'originale

Phelipe

@elettrona @Tawni perdonami ma non capisco.
Dici che un cristiano ha diritto di guardarsi un porno, e ok
poi però dici che i social devono fare moderazione. Ma di cosa esattamente? Perché se il porno non è illegale allora cosa c'è da moderare? O togli tutto, e questo significa abolire in toto il porno, o lasci tutto, perché poi non ha modo di dire "tu puoi guardarlo, tu no".
in reply to Phelipe

@mrphelz
I bambini sotto i 14 anni non dovrebbero avere smartphone personali (come del resto non possono liberamente guidare un ciclomotore) ed in questo dovrebbe essere lo stato ad intervenire. La scuola dovrebbe insegnare dalle elementari sia l'opportunità dell'utilizzo di internet sia i pericoli che può offrire. I genitori si dovrebbero rendere conto che lasciare un bambino da solo nell'uso di un social media è come lasciarlo solo @elettrona @informapirata@poliverso.org @informapirata @stefan
in reply to MaiuZ

nell'uso di un veicolo a motore. Poi ben vengano multe e blocchi alle società che schiavizzano l'attenzione e che campano con la manipolazione delle menti, delle idee e della realtà (i cui algoritmi di funzionamento dovrebbero essere liberamente accessibili almeno da revisori statali), ma non a discapito della libertà ed alla privacy di tutti.
@elettrona @informapirata@poliverso.org @informapirata @stefan @mrphelz
Unknown parent

mastodon - Collegamento all'originale

Phelipe

@elettrona @informapirata@poliverso.org
"limitazione del tempo e degli scroll" e se io adulto volessi passare tutto il giorno a scrollare perchè dovresti impedirmelo?
"Tipo test di cultura generale per accedere ai social" che sarebbe aggirabile aprendo un'altra scheda del browser per cercare le risposte alle domande ... comunque mi hai sbloccato un ricordo: Leisure Suite Larry, videogame del 1987, per giocarci dovevi rispondere prima a domande che un minorenne in teoria non sapeva
Unknown parent

mastodon - Collegamento all'originale

Phelipe

@elettrona @informapirata@poliverso.org
"Ordine cronologico del feed attivo per default" quindi togli ai social l'uso del principale mezzo che hanno per fare soldi, tanto vale farli chiudere d'ufficio.
"moderatori umani" come ho già scritto, questo a) implica chiudere il 90% dei siti del fediverso e b) dove metti il limite tra moderazione e censura?
in reply to Phelipe

@Phelipe non diciamo eresie: il 90% delle fediverso è sottoposto a una ferrea moderazione. L'istanza nella quale sei iscritto ha un rapporto tra moderatori e utenti che è di diecimila volte superiore rispetto a quello di qualsiasi Social commerciale. L'assenza di moderazione è un rischio Prima di tutto per gli amministratori del server che quindi hanno tutto l'interesse a moderare costantemente la propria istanza e i contenuti provenienti dalle istanze federate, moderazione che prevede anche la defederazione delle istanze problematiche

@Elena Brescacin @Tawni

Unknown parent

glitchsoc - Collegamento all'originale

macfranc

@elettrona esattamente: il fediverso è intrinsecamente più sicuro nella moderazione rispetto a qualsiasi altro server centralizzato proprio perché l'utente può scegliersi l'istanza con le pratiche di moderazione a lui più congeniali.

Naturalmente nulla vieta che qualcuno possa creare un server pubblico accessibile da chiunque, per pubblicare ogni sorta di contenuti illegali, ma verrebbe immediatamente bloccato da tutte le istanze più responsabili che costituiscono la quasi totalità dei volumi del fediverso.

Per quanto riguarda il falso problema della verifica dell'età ricordo la nostra regola numero 9

Politica sull'età: il Fediverso è anonimo e noi non vogliamo sapere la tua età ma NON PUOI ISCRIVERTI A QUESTO SERVER SE NON HAI COMPIUTO I 16 ANNI e se a nostro insindacabile giudizio dimostri meno di 16 anni, sospenderemo il tuo account


Questo significa che io non posso sapere quanti anni hai, ma se dimostri di comportarti come un dodicenne ti banno dalla mia istanza anche se hai 70 anni. E se riusciamo a farlo noi moderatori del fediverso senza disporre di sistemi di intelligenza artificiale integrati, non vedo perché non possono farlo le Big Tech

@mrphelz @informapirata@poliverso.org @informapirata@mastodon.uno @stefan

in reply to Phelipe

@mrphelz
Hai tralasciato una parte fondamentale: uno dei mezzi principali che hanno per creare dipendenza (e di conseguenza fare soldi).

Volendo fare il tuo gioco, sembra che per te sia lecito lasciare liberamente utilizzabili da privati strumenti che creano dipendenza, senza nessuna regola, perché servono per fare soldi.

Il tuo punto sebra essere che se serve per fare soldi, allora chissenefrega delle conseguenze e zero responsabilità.
@elettrona @informapirata@poliverso.org @informapirata @stefan

in reply to pgo

@pgo @elettrona @informapirata@poliverso.org
Se tutti i social chiudessero domani io dormirei sonni più che tranquilli.
no, il mio punto è il doppio standard: l'alcol crea dipendenza, ma nessuno vuole regolare/multare/chiudere le case vinicole, si vieta la vendita ai minori.
I social creano dipendenza, li vietiamo ai minori? Assolutamente no, multiamo/chiudiamo i social.
È l'incoerenza che mi dà fastidio, ma sicuramente è un mio limite.
Unknown parent

mastodon - Collegamento all'originale

Phelipe

@elettrona @pgo @informapirata@poliverso.org i social sono pericolosi? ok, allora chiudiamoli, ma tutti (fediverso compreso).
"Contenuti manipolativi, ecc." il problema è che questa definizione è applicabile praticamente a qualunque sito o servizio online, e de facto anche a qualunque forma di informazione.
cosa facciamo, chiudiamo internet, giornali, tv e radio?
Il problema è: chi è che decide cosa è giusto e cosa è sbagliato, cosa fa male e cosa no?
Unknown parent

mastodon - Collegamento all'originale

Phelipe

la responsabilità senza conseguenze è solo un inutile guscio vuoto. Altri qui hanno scritto che le conseguenze dovrebbero esserci solo per i social, non per i genitori, ma se devono esserci responsabilità per tutti allora devono esserci anche conseguenze per tutti.
Inoltre rimane il problema alla radice: chi decide cosa è giusto e cosa no? Lo stesso governo di cui rifiuti il controllo perché potrebbe rivoltartisi contro?
Questa voce è stata modificata (3 settimane fa)
in reply to Phelipe

@Phelipe

"Contenuti manipolativi, ecc." il problema è che questa definizione è applicabile praticamente a qualunque sito o servizio online


No! La manipolazione algoritmica non è una sensazione soggettiva, ma è la diretta conseguenza risultante dalla progettazione e dall'analisi funzionale dei sistemi sottostanti ai servizi social commerciali. Lo hanno stabilito almeno due tribunali statunitensi nelle ultime settimane basandosi su whistleblower, sperimentazioni controllate e ammissioni dei dirigenti.

La manipolazione algoritmica è nel design dei social commerciali e ogni paragone con il Fediverso (ma anche con Bluesky) è totalmente fuori luogo ed è indice di scarsa comprensione del problema

@pgo @Elena Brescacin @informapirata ⁂ @Stefan Bohacek

reshared this

in reply to Informa Pirata

@informapirata@poliverso.org @pgo @elettrona mi riferivo a tutto il blocco "Contenuti manipolativi, disinformazione, oscuramento di contenuti scomodi per il governo in carica, realtà plasmata su misura di chi li gestisce...", non solo alla parte contenuti manipolativi.
la stessa moderazione che fate voi, defederando istanze che definite "problematiche" è considerabile "realtà plasmata su misura di chi la gestisce".
in reply to Phelipe

@mrphelz @elettrona @pgo @informapirata@poliverso.org però qui siamo davanti ad una fregatura. Le ricerche fanno sospettare che gli algoritmi di Meta provochino malattie mentali ai minorenni. Su quello gli stati di diritto dovrebbero agire, non usarlo come scusa per controllare tutto.

reshared this

Unknown parent

friendica (DFRN) - Collegamento all'originale

Informa Pirata

 — (Italy)

@Elena Brescacin mi sembra chiaro che @Phelipe non abbia nessuna intenzione di inserire nell'equazione problemi come la progettazione deliberata della manipolazione e la asimmetria tra proprietario/sviluppatore della piattaforma e utenti (amplificata da semplici questioni di scala globale).

Senza considerare questo è facile equiparare la manipolazione algoritmica delle grandi piattaforme alla manipolazione che si ha in occasione dei ricattini tra compagni di banco all'asilo... 😁

@pgo @informapirata ⁂ @Stefan Bohacek

in reply to Phelipe

@mrphelz @elettrona @pgo @informapirata@poliverso.org
Bellissima discussione. Aggiungo l'ovvio: le big tech dei social ci hanno straguadagnato da questa zona grigia in cui si trovano ( ovvero fatturare su contenuti di cui non sono responsabili ).
Quello che voglio dire è che in qualunque modo la si voglia risolvere, le Meta di turno dovranno per forza avere regole più strette, e che a mio avviso sarà proprio questa la chiave per dei social meno tossici, molto più dell'age control.

reshared this

in reply to deny

@sposadelvento @mrphelz @elettrona @pgo @informapirata@poliverso.org per fare una sintesi, mi pare di comprendere che l'opinione comune qui è che i social debbano essere responsabili delle cose che sono pubblicate al loro interno. Questo vuol dire che ci vuole un controllo capillare che il fediverso mi pare di vedere già pone in essere, mentre i social " commerciali" si guardano bene dal realizzare, anzi smantellano come ha fatto X quel poco che esisteva.
in reply to Maurizio

@migbox i social non devono essere responsabili delle cose che vengono pubblicate dai loro utenti, ma devono essere responsabili:
- della omessa rimozione di contenuti e utenti problematici e di campagne di disinformazione, quando segnalati
- della adozione del software, con particolare riferimento al design che deve consentire la raccolta delle segnalazioni e che deve evitare la manipolazione psicologica degli utenti

@sposadelvento @mrphelz @elettrona @pgo @informapirata@poliverso.org @stefan

Joe Vinegar reshared this.

in reply to informapirata ⁂

@migbox agli amministratori delle istanze del fediverso infatti viene già attribuita questa responsabilità di natura ambientale. Anch'essi sono soggetti vulnerabili, basti pensare al rischio di farsi chiudere un server nel momento in cui contiene contenuti ad altissima criticità (csam, narcotraffico, riciclaggio o terrorismo)

@sposadelvento @mrphelz @elettrona @pgo @informapirata@poliverso.org @stefan

in reply to Maurizio

@migbox
I social commerciali dovrebbero essere responsabili delle app/siti che pubblicano.
Se mettono online un'app che crea dipendenza, sono responsabili.
Profilano illegalmente gli utenti?
Responsabili.
Accedono a più dati di quel che è previsto dalla legge?
Idem come sopra.
Per ogni violazione una sanzione del 5% del fatturato globale non negoziabile.
Contenuti: responsabile chi pubblica, se i social moderano davvero...
@sposadelvento @mrphelz @elettrona @informapirata@poliverso.org @informapirata @stefan
Unknown parent

mastodon - Collegamento all'originale

deny

@elettrona @migbox @pgo @mrphelz @informapirata@poliverso.org
Credo che siamo tutti d'accordo: vorremmo che i social fossero posti dove l'anonimato è consentito, ma la maleducazione, la persecuzione e la calunnia no.
È ben per questo che siamo qui.
E d'altronde questo risolverebbe anche la faccenda dei minori: io credo che in un social già nativamente meno tossico, basterebbe taggare: contenuti non per minori e via.
O no?

reshared this

Unknown parent

mastodon - Collegamento all'originale

deny

@naridola @elettrona @migbox @pgo @mrphelz @informapirata@poliverso.org
Ma no!
L'idea sarebbe che l'iscrizione al social di turno avvenga insieme al genitore, flaggando la casella 'iscrizione come minore'.
Addirittura con un piccolo sforzo, riesco a immaginare l'acquisto dello smartphone insieme al genitore, selezionando una versione di OS 'per minori'.
Potrebbe funzionare?

Joe Vinegar reshared this.

in reply to deny

@sposadelvento @elettrona @migbox @pgo @mrphelz @informapirata@poliverso.org poi i minori la prima cosa che farebbero sarebbe cercare i contenuti taggati nominori. Mio cuggino almeno era così. Siccome verificare l'età pone problemi di controllo sociale, divieto di smartphone ai minori di 14 anni. Se un minore ha uno smartphone, multa al rivenditore e al genitore.
in reply to deny

@sposadelvento
È improbabile che una soluzione tecnica risolva un problema sociale...
Puoi mettere flag, registrazioni, blocchi, tag, ma se non ci sono conseguenze per i social che svicolano o i genitori che se ne fregano, tutta la tecnologia dell'universo è inutile.
Di contro, regole chiare e conseguenze certe richiederebbero meno accrocchi tecnici pur dando maggior sicurezza.
@naridola @elettrona @migbox @mrphelz @informapirata@poliverso.org @informapirata @stefan

Joe Vinegar reshared this.

Unknown parent

mastodon - Collegamento all'originale

deny

@elettrona @pgo @naridola @migbox @mrphelz @informapirata@poliverso.org
Sicuro?
Immaginiamo un social senza algoritmo, quindi con le seguenti regole:
* Vedi quello che segui ;
* Vedi della pubblicità etichettata come tale (sulla targettizzazione si vede) ;
* Vedi altri contenuti per delle ragioni specifiche ed esplicite;

Inseriamo un altro paio di regole chiare per evitare calunnie e insulti.

Algoritmo eliminato.
Rimane la dopamina 'nativa',ma direi che la tossicità è finita, no?

Unknown parent

mastodon - Collegamento all'originale

deny

@elettrona @pgo @naridola @migbox @mrphelz @informapirata@poliverso.org
Certo. Ma io penso che sia dirimente.
Ovvero, che se non ci fosse l'algoritmo rimarrebbe la dopamina di una normale discussione umana, in cui ci sono i timidi, gli esibizionisti, gli intrattenitori, gli arrabbiati..
In breve, io penso che senza algoritmo sparirebbe la tossicità.
E potrebbe essere la base giusta per un social migliore per adulti e, con qualche piccola modifica, anche per i minori.
in reply to deny

@sposadelvento @elettrona @pgo @naridola @migbox @informapirata@poliverso.org dimentichi un aspetto fondamentale: se togli "l'algoritmo" togli si la tossicità ma togli anche al social la capacità di monetizzare, ergo il social chiude (non puoi pensare che x, facebook, insta e compagnia stiano su con le donazioni).
magari è quello che si vuole, come ho detto altrove se chiudono domani io dormo sonni tranquilli.
in reply to Phelipe

@mrphelz @sposadelvento @elettrona @pgo @migbox @informapirata@poliverso.org se viene dimostrato scientificamente che l'algoritmo è dannoso? Lo Stato dovrebbe tollerare danni alla popolazione per permettere a società private (peraltro estere con residenze fiscali di comodo) di generare utili e dividendi, mentre si fa carico di disturbi della personalità, problemi di ordine pubblico e spese sanitarie?
in reply to Phelipe

@naridola @sposadelvento @elettrona @pgo @migbox @informapirata@poliverso.org
e comunque non era il punto: come ho già ribadito più volte per me possono chiudere tutti domani; non sto ragionando se l'algoritmo sia dannoso o meno, ho semplicemente fatto notare che se vieti l'algoritmo i grossi social chiudono perchè gli togli il modo di monetizzare.
in reply to Naridola

@naridola @sposadelvento @elettrona @pgo @migbox @informapirata@poliverso.org
quindi permettere una cosa che è scientificamente dimostrato essere dannosa per la popolazione ma su cui lo stato ci guadagna va bene? 🤔
allora la soluzione è semplice: tassiamo di più i social e chi se ne frega dell'algoritmo, no? 🤷‍♂️
in reply to Phelipe

@mrphelz
Da quando si è preso coscienza dei rischi, le sigarette hanno regole rigide e nel corso degli anni stanno venendo sempre più stigmatizzate e i fumatori ghettizzati.
Sì, ci può stare: regole stringenti per i social, costosi da usare per chi li vuole e divieto di fare pubblicità o comunque solo con restrizioni pesanti (vi ricordate di quando in f1 le auto erano tappezzate dai vari brand del tabacco?).
@naridola @sposadelvento @elettrona @migbox @informapirata@poliverso.org @informapirata @stefan
in reply to Phelipe

@mrphelz
Il punto non è quanto vale ma quanto te la fanno pagare.
Senza profilazione la pubblicità dovrebbero fartela pagare di meno, non sarebbe gratis.
Se la profilazione, annessi e connessi è dannosa, deve avere regole rigide (vedi sigarette, auto inquinanti, centrali a carbone...).
Dire 'no regole sennò i gudagni calano', ma anche no...
@sposadelvento @naridola @elettrona @migbox @informapirata@poliverso.org @informapirata @stefan
in reply to pgo

@pgo @sposadelvento @naridola @elettrona @migbox @informapirata@poliverso.org io non ho mai detto "no regole sennò i guadagni calano", ho detto solo che se gli riduci drasticamente la capacità di monetizzare poi chiudono, che non vuol dire che non si possono mettere regole.
Vuol dire che poi a più di qualcuno (visti i numeri degli utenti) la cosa potrebbe non andare bene.
in reply to Phelipe

@mrphelz
Risposta pilatesca: agli altri potrebbe non andare bene, non sei tu che fai commenti monodirezionali.
Credo che anche ai cartelli della droga le leggi non vadano bene: con la tua logica, suggerisci di prestare attenzione perché a pusher e drogati le regole potrebbero non andare giù.
@sposadelvento @naridola @elettrona @migbox @informapirata@poliverso.org @informapirata @stefan
in reply to Phelipe

@mrphelz
Hai scritto un sacco e detto niente.
Riporti cose sostenendo che potrebbero dare fastidio a molti, ma effettivamente, non hai preso una posizione che sia una.
Sei all'angolo ma non contesti mel merito, sgusci e ti sfili.
Llm all'opera?
@sposadelvento @naridola @elettrona @migbox @informapirata@poliverso.org @informapirata @stefan
in reply to pgo

@pgo @sposadelvento @naridola @elettrona @migbox @informapirata@poliverso.org mi attribuisci parole che non ho detto e ti nascondi dietro leggi e regole per evitare di dire esplicitamente che non vuoi regolare ma vuoi semplicemente chiudere i social cattivi. Ripeto: pensa quello che vuoi, contento te contenti tutti, da parte mia non ha senso continuare oltre. 🤷
in reply to Phelipe

@mrphelz
I tuoi post sono da leggere, come i miei.
Hai parlato di doppiopesismo perchè 'ma le sigarette', sostieni che 'alcuni potrebbero' ma non esponi il tuo pensiero e non prendi posizione.
Non è discutere.
Buona giornata.
@sposadelvento @naridola @elettrona @migbox @informapirata@poliverso.org @informapirata @stefan
Unknown parent

gotosocial - Collegamento all'originale

simone

Ci ho messo un po' di tempo a capirlo, ma alla fine ci sono arrivato.

Le segnalazioni su facebook sono fatte per dare a TE, che sei un utente ignaro, l'illusione che la piattaforma ti ascolta e prende in seria considerazione le segnalazioni.

Ma è uno specchietto per le allodole.

L'obiettivo è sedare l'utente imbufalito, poi un qualche algoritmo deciderà cosa fare. Al 99,9% delle volte non fa niente, perché i post segnalati non violano mai "gli standard della comunità", anche se non è palesemente vero.

L'algoritmo lascia passare ogni sorta di nefandezza razzista, omofoba, misogina; chi più ne ha più ne metta... è proprio progettato così.

Lo so perché ho segnalato cose che in nessun universo possibile sarebbero accettabili, ma quasi nessuna di queste è stata rimossa. E questo accade dagli albori della piattaforma. Facebook è ed è sempre stata una piattaforma di estrema destra, forse meno di X, ma di poco.

Di recente le mie supposizioni sono state confermate da gente ben più importante e ferrata di me.

@aaronwinstonsmith @mrphelz @pgo @informapirata @informapirata @stefan

Questa voce è stata modificata (2 settimane fa)

reshared this