Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.Naturalisti kirjoitti: ↑04 Kesä 2025, 12:51Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?ID10T kirjoitti: ↑04 Kesä 2025, 11:54Tekoälyn sääntely - nykytilanteessa tai tulevaisuudessa - on sikäli ongelmallista, että käyttäjän näkökulmasta tekoäly on "musta laatikko", joka näyttää meille vain parhaimman puolensa, emme siis vältämättä tiedä tulleemme huijatuiksi. Sama varmaan koskee suurinta osaa lainlaatijoista, hekään eivät tunne kaikkia algoritmien saloja. Koodaamisesta vastaavat tahot taas eivät välttämättä kerro meille kaikkea.Naturalisti kirjoitti: ↑04 Kesä 2025, 11:42Tarkennuksena: puhuin tässä tekoälyn nykykehityksen sääntelystä ja sen merkityksestä. Tällä hetkellä olemme tilanteessa, jossa tekoälyn käyttöä ja sen vaikutuksia yhteiskuntaan voidaan ja pitää säännellä lainsäädännöllä. Onko sinulla mielipide tästä asiasta?ID10T kirjoitti: ↑04 Kesä 2025, 11:11Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.Naturalisti kirjoitti: ↑04 Kesä 2025, 10:45Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.Vän kirjoitti: ↑04 Kesä 2025, 07:54Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.Naturalisti kirjoitti: ↑03 Kesä 2025, 23:14Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?Vän kirjoitti: ↑03 Kesä 2025, 20:56Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.Naturalisti kirjoitti: ↑03 Kesä 2025, 20:48En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.Vän kirjoitti: ↑03 Kesä 2025, 20:03
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:
Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.
Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?
Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.
Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?
Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.ID10T kirjoitti: ↑04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.
Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
En käsitellyt tulevaisuuden hypoteettiselle autonomiselle tekoälylle asetettavia erityissääntöjä. Jos joskus kehitetään aidosti ihmismäinen, autonominen tekoäly, sen ei tule olla erillisen lainsäädännön alainen. Sen tulee toimia samojen demokraattisesti säädettyjen lakien puitteissa kuin kaikkien muidenkin saman sosiaalisen yhteisön jäsenten. Jos se on tietoinen toimija, sitä ei voida asettaa välineeksi, vaan sen on oltava juridisesti ja eettisesti samalla tasolla kuin ihmisten kanssa toimivat subjektit.
Mitä mieltä olet tästä? Pitäisikö tekoälyä säädellä tiukemmin jo nykyisessä kehityksessä vai pidätkö nykyistä sääntelyä riittävänä?
Edellä mainituista seikoista huolimatta on tietenkin syytä yrittää varmistaa ajoissa, ettei meitä manipuloida tekoälyn avulla.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.

