FACILI BATTUTE, PROBLEMI PROFONDI
L’impatto della tecnologia sulla società è sempre stato imponente ed in grado di stravolgere le stesse strutture sociali ed i comportamenti dei singoli individui.
“L’azienda canadese KinkysDolls – che produce e commercializza bambole al silicone calde al tatto e capaci di emulare risposte umane – ha tentato di lanciare uno dei suo Brothel a Houston, in Texas. L’azienda ha già un suo “bordello di robot” in Canada e vuole espandere il business in nord America, Europa e Giappone.
La questione ha ovviamente sollevato resistenze, dubbi e perplessità, da quelle degli attivisti che vedono il sesso robotico come la fine della civiltà (https://campaignagainstsexrobots.org/), alle associazioni religiose, ai movimenti politici conservatori.
Ma il dubbio più interessante lo hanno sollevato i transumanisti: dovremmo preoccuparci dei diritti civili dei robot e delle AI? (https://metro.co.uk/2018/11/05/robots-deserve-human-rights-why-activists-want-to-protect-machines-from-their-creators-8097696/)… tanto per dirne una, la messa all’asta della “verginità” di una bambola robot ha già raccolto decine di migliaia di dollari.” (Future Fiction)
L’ironia sul web non mancherà soprattutto nei confronti di questa nuova competizione umani macchine in relazione al mestiere della prostituzione che, ricordiamolo, in Europa non è affatto vietato ed in molti paesi è regolamentato e tassato.
Attualmente in Italia sono solo i regolamenti igienici dei comuni a fare da ostacolo alla creazione di strutture fisse che possano essere riferimento per tali tipi di pratiche. Tra l’altro qui regolamenti possono essere facilmente aggirabili nel caso di strutture associative O più semplicemente nel grigiore dell’attività privatistica portata avanti dai cittadini semplicemente col passaparola, un po’ come le normali case per appuntamenti.
Nel corso del tempo i sistemi di emulazione emozionale e di decisione autonoma per autoapprendimento alimentati da quelle che comunemente si chiamano intelligenze artificiali porranno il dilemma etico. Il punto è che le intelligenze artificiali imparano e decidono, Il paradosso è che possono imparare attitudini non morali tali che potrebbero avere influenza nella relazione con gli individui e con altre IA. Persino un sistema primordiale può quindi agire in modo contrario alle aspettative delle specifiche di prima programmazione a seconda di ciò che impara durante le “frequentazioni” perseguendo L’obiettivo della massima soddisfazione del cliente e la necessità di marketing di fare in modo che torni prezzo la stessa società di erogazione di tali pratiche di intrattenimento in concorrenza con altri fornitori dello stesso servizio. Questo corto circuito e la possibile profilazione dei singoli clienti tende rendere possibile la non specializzazione degli ambienti così da poter ricevere una varietà di diverse richieste di esperienze dalle più coccolose alle più estreme. La resilienza di un sistema tanto più diviene complesso tanto più evidenzia il rischio di quelli che in informatica vengono chiamati risultati non conformi ed aberrazioni rispetto alla programmazione. Si rischiano quindi possibili risposte che ad una analisi, nel caso stessimo parlando di esseri umani, apparirebbero essere effetti di un trauma. Potete immaginare quindi le conseguenze sociali, politiche e culturali di tale possibile innesco.