Koska tuo oli muuten vanhan toistoa, kommentoin vain lopun väitettä siitä, että tekoäly tuottaisi miljardeja valtion kassaan.Naturalisti kirjoitti: ↑05 Kesä 2025, 22:58Tekoälyn kehitys ei ole yksinomaan fatalistinen ilmiö, vaan sen suuntaa voidaan ohjata järkevällä sääntelyllä ja tutkimuksen painopisteiden valinnalla. Esimerkiksi Peter Sarlinin näkemykset tukevat tätä ajattelua: hän on painottanut, että EU:n tulee kehittää vahvaa tekoälyinfrastruktuuria ja kilpailukykyistä ekosysteemiä, mutta samalla huolehtia siitä, että kehitys tapahtuu vastuullisesti eikä estä innovaatioita.ID10T kirjoitti: ↑05 Kesä 2025, 12:02Olen mielestäni realisti. Ja paljonkin on tehtävissä, ei käytetä tekoälyä tai ei ainakaan anneta sen kehittyä autonomiseksi, mikäli sen estäminen on mahdollista.Naturalisti kirjoitti: ↑05 Kesä 2025, 11:50---ID10T kirjoitti: ↑04 Kesä 2025, 14:48Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.Naturalisti kirjoitti: ↑04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.Vän kirjoitti: ↑04 Kesä 2025, 17:04En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.Naturalisti kirjoitti: ↑04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.
Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Yliopistot eivät ole ainoa tekoälyä kehittävä taho, enkä sinällään näe syytä, miksi yksityiset yritykset pitäisi tässä ulkopuolelle sulkeakaan.
Entä millä tavalla Draghi ja Lagarde tähän liittyvät? He ovat ajamassa EU:n talousuudistuksia, mikä ei ole tekoälyyn sidoksissa mitenkään.
Miksi täysin säätelemätön tekoälykehitys olisi ongelma?
Täysin säätelemättömässä ympäristössä tekoäly voisi kehittyä suuntaan, jossa:
- Globaalit suuryritykset määrittävät kehityksen suunnan ilman julkista valvontaa, mikä johtaisi mahdollisiin monopolisoituihin rakenteisiin ja yhteiskunnalliseen eriarvoisuuteen.
- Autonomisten järjestelmien päätöksenteko muuttuisi läpinäkymättömäksi, jolloin yksilöiden oikeudet ja tietosuoja olisivat vaarassa.
- Sota- ja turvallisuuskäyttöön kehitetty tekoäly voisi jäädä ilman eettisiä rajoituksia, mikä loisi riskejä demokraattisille instituutioille ja yhteiskunnalliselle vakaudelle.
Täysin autonominen tekoäly on vielä ajatuskoe, mutta sen mahdolliset vaikutukset ovat syytä keskustella tulevaisuudentutkimuksen näkökulmasta. Tämä auttaa varautumaan mahdollisiin haasteisiin ja varmistamaan, että tekoäly kehittyy yhteiskunnan kannalta kestävällä tavalla.
Miksi julkinen yliopistotutkimus on tärkeää?
Vaikka tekoälyä kehittävät myös yksityiset yritykset, on tärkeää varmistaa, että yliopistoilla on riittävät resurssit tekoälytutkimukseen, jotta:
- Tekoälyn kehitystä ei ohjaa pelkästään kaupalliset intressit, vaan myös yhteiskunnalliset näkökulmat ja eettiset arvioinnit.
- Lainsäätäjillä on asiantuntijatietoa päätöksenteon tukena, eikä sääntely jää vain suuryritysten lobbaamisen varaan.
- Demokraattinen yhteiskunta voi varmistaa läpinäkyvyyden ja vastuullisuuden tekoälykehityksessä, jolloin teknologia palvelee koko yhteiskuntaa eikä vain taloudellisesti vahvimpia toimijoita.
Näin EU voisi olla aktiivinen toimija tekoälyn kehityksen ohjaamisessa, eikä pelkästään teknologian vastaanottajana globaalissa kilpailussa.
Tekoäly voi tuoda miljardeja valtion kassaan, mutta toistaiseksi sen käyttöönotto on ollut hidasta
https://yle.fi/a/74-20093883
Suomalaisyritykset eivät ole ottaneet tekoälyä käyttöön odotetulla innolla. Etenkin pienissä ja keskisuurissa yrityksissä tekoälyn hyödyntäminen on jäänyt vähäiseksi.
Ensinnäkin tekoäly vähentää ihmistyövoiman tarvetta, jolloin ansiotuloverot vähenevät. Toiseksi kaikki BKT:ssa ei ole yhteistä rahaa, vaan osa siitä häipyy ulkomaisille sijoittajille ja monikansallisten yritysten taseeseen.

