Poll: Ateisti vai uskovainen

Tieteellistä keskustelua uskonnoista ja uskontojen vaikutuksista ihmiseen.

Oletko ateisti vai uskovainen

Uskovainen
8
13%
Ateisti
28
44%
Agnostikko
10
16%
Jotain muuta kuin nuo kolme
8
13%
En tiedä
3
5%
En välitä mikä olen kyseisen asian suhteen
6
10%
 
Ääniä yhteensä: 63

ID10T
Reactions:
Viestit: 20207
Liittynyt: 07 Joulu 2022, 19:41

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja ID10T »

Naturalisti kirjoitti: 04 Kesä 2025, 12:51
ID10T kirjoitti: 04 Kesä 2025, 11:54
Naturalisti kirjoitti: 04 Kesä 2025, 11:42
ID10T kirjoitti: 04 Kesä 2025, 11:11
Naturalisti kirjoitti: 04 Kesä 2025, 10:45
Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.
Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.
Tarkennuksena: puhuin tässä tekoälyn nykykehityksen sääntelystä ja sen merkityksestä. Tällä hetkellä olemme tilanteessa, jossa tekoälyn käyttöä ja sen vaikutuksia yhteiskuntaan voidaan ja pitää säännellä lainsäädännöllä. Onko sinulla mielipide tästä asiasta?

En käsitellyt tulevaisuuden hypoteettiselle autonomiselle tekoälylle asetettavia erityissääntöjä. Jos joskus kehitetään aidosti ihmismäinen, autonominen tekoäly, sen ei tule olla erillisen lainsäädännön alainen. Sen tulee toimia samojen demokraattisesti säädettyjen lakien puitteissa kuin kaikkien muidenkin saman sosiaalisen yhteisön jäsenten. Jos se on tietoinen toimija, sitä ei voida asettaa välineeksi, vaan sen on oltava juridisesti ja eettisesti samalla tasolla kuin ihmisten kanssa toimivat subjektit.

Mitä mieltä olet tästä? Pitäisikö tekoälyä säädellä tiukemmin jo nykyisessä kehityksessä vai pidätkö nykyistä sääntelyä riittävänä?
Tekoälyn sääntely - nykytilanteessa tai tulevaisuudessa - on sikäli ongelmallista, että käyttäjän näkökulmasta tekoäly on "musta laatikko", joka näyttää meille vain parhaimman puolensa, emme siis vältämättä tiedä tulleemme huijatuiksi. Sama varmaan koskee suurinta osaa lainlaatijoista, hekään eivät tunne kaikkia algoritmien saloja. Koodaamisesta vastaavat tahot taas eivät välttämättä kerro meille kaikkea.

Edellä mainituista seikoista huolimatta on tietenkin syytä yrittää varmistaa ajoissa, ettei meitä manipuloida tekoälyn avulla.
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.
Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.
Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.

Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Naturalisti kirjoitti: 04 Kesä 2025, 12:51
ID10T kirjoitti: 04 Kesä 2025, 11:54
Naturalisti kirjoitti: 04 Kesä 2025, 11:42
ID10T kirjoitti: 04 Kesä 2025, 11:11
Naturalisti kirjoitti: 04 Kesä 2025, 10:45
Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.
Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.
Tarkennuksena: puhuin tässä tekoälyn nykykehityksen sääntelystä ja sen merkityksestä. Tällä hetkellä olemme tilanteessa, jossa tekoälyn käyttöä ja sen vaikutuksia yhteiskuntaan voidaan ja pitää säännellä lainsäädännöllä. Onko sinulla mielipide tästä asiasta?

En käsitellyt tulevaisuuden hypoteettiselle autonomiselle tekoälylle asetettavia erityissääntöjä. Jos joskus kehitetään aidosti ihmismäinen, autonominen tekoäly, sen ei tule olla erillisen lainsäädännön alainen. Sen tulee toimia samojen demokraattisesti säädettyjen lakien puitteissa kuin kaikkien muidenkin saman sosiaalisen yhteisön jäsenten. Jos se on tietoinen toimija, sitä ei voida asettaa välineeksi, vaan sen on oltava juridisesti ja eettisesti samalla tasolla kuin ihmisten kanssa toimivat subjektit.

Mitä mieltä olet tästä? Pitäisikö tekoälyä säädellä tiukemmin jo nykyisessä kehityksessä vai pidätkö nykyistä sääntelyä riittävänä?
Tekoälyn sääntely - nykytilanteessa tai tulevaisuudessa - on sikäli ongelmallista, että käyttäjän näkökulmasta tekoäly on "musta laatikko", joka näyttää meille vain parhaimman puolensa, emme siis vältämättä tiedä tulleemme huijatuiksi. Sama varmaan koskee suurinta osaa lainlaatijoista, hekään eivät tunne kaikkia algoritmien saloja. Koodaamisesta vastaavat tahot taas eivät välttämättä kerro meille kaikkea.

Edellä mainituista seikoista huolimatta on tietenkin syytä yrittää varmistaa ajoissa, ettei meitä manipuloida tekoälyn avulla.
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.

Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Never trust the Government. Fuck the Government.
Phobos
Reactions:
Viestit: 1465
Liittynyt: 19 Touko 2025, 15:14

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Phobos »

100 %:sen varmasti homma meni näin.
Liitteet
503650324_715565724169200_4143873787943507744_n.jpg
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

ID10T kirjoitti: 04 Kesä 2025, 14:48
ID10T kirjoitti: 04 Kesä 2025, 14:48
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.
Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.
Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.

Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
---
Vän kirjoitti: 04 Kesä 2025, 17:04
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.

Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
ID10T
Reactions:
Viestit: 20207
Liittynyt: 07 Joulu 2022, 19:41

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja ID10T »

Naturalisti kirjoitti: 05 Kesä 2025, 11:50
ID10T kirjoitti: 04 Kesä 2025, 14:48
ID10T kirjoitti: 04 Kesä 2025, 14:48
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.
Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.
Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.

Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
---
Vän kirjoitti: 04 Kesä 2025, 17:04
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.

Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Olen mielestäni realisti. Ja paljonkin on tehtävissä, ei käytetä tekoälyä tai ei ainakaan anneta sen kehittyä autonomiseksi, mikäli sen estäminen on mahdollista.

Yliopistot eivät ole ainoa tekoälyä kehittävä taho, enkä sinällään näe syytä, miksi yksityiset yritykset pitäisi tässä ulkopuolelle sulkeakaan.

Entä millä tavalla Draghi ja Lagarde tähän liittyvät? He ovat ajamassa EU:n talousuudistuksia, mikä ei ole tekoälyyn sidoksissa mitenkään.
Avatar
Toope
Reactions:
Viestit: 8444
Liittynyt: 05 Joulu 2022, 17:50

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Toope »

Naturalisti kirjoitti: 05 Kesä 2025, 11:50 Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Ajatusmallisi kuulostaa minusta pitkälti valtiojohtoiselta idealta, jossa valtio määrää tutkimusta ja taloutta. Meillä oli joku sanakin sille, oliko sosialismi?!
Taantuvassa yhteiskunnassa tuloerot ovat minimissä.
https://sarastuslehti.com/2016/12/19/20 ... dystopian/
Suomalainen sisu:
https://www.youtube.com/watch?v=7WXuejg7fwU
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Toope kirjoitti: 05 Kesä 2025, 18:47
Naturalisti kirjoitti: 05 Kesä 2025, 11:50 Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Ajatusmallisi kuulostaa minusta pitkälti valtiojohtoiselta idealta, jossa valtio määrää tutkimusta ja taloutta. Meillä oli joku sanakin sille, oliko sosialismi?!
Oli meillä sille sana, mutta tuo on vanhentunut termi. Nykyinen tuota kuvaava sana on trumpismi. Trumphan esimerkiksi määrää, mitä yliopistoissa saa tutkia ja kuinka paljon kaupat saavat veloittaa asiakkailtaan.
Never trust the Government. Fuck the Government.
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Naturalisti kirjoitti: 05 Kesä 2025, 11:50
ID10T kirjoitti: 04 Kesä 2025, 14:48
ID10T kirjoitti: 04 Kesä 2025, 14:48
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.
Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.
Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.

Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
---
Vän kirjoitti: 04 Kesä 2025, 17:04
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.

Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Sekoitat asioita mielestäni yhä edelleen. Tätä perinteistä tekoälyä, AI:tä, Copilotia, ChatGBT:tä, Gonkia yms. voidaan hallita lainsäädännöllä ja melko hyvää työtä EU:ssa sen suhteen tehdäänkin. Siinä ei ole suurta huolen aihetta. Toki sitä tullaan käyttämään ihmisten manipulointiin jossain määrin, mutta kokonaan sitä ei voi mitenkään estää, jos haluamme säilyttää vapaan yhteiskunnan. Vähän kuten edellisessä viestissäni yritin demonstroida. Se ei kuitenkaan ole iso ongelma. Ihmisiä on manipuloitu jo tuhansia vuosia ja osaamme elää sen kanssa.

Se, mikä on vaarallinen ja minkä kehittäminen pitäisi mielestäni estää, on autonominen tietoinen tekoäly, jolla on vapaa tahto. Tai ainakin sinun maalailema idea siitä. Sellainen, jota emme voi hallita ja jolle emme edes tee pakottavia komentoja ohjelmistoon, ns. primary directives. Tästä seuraa, että emme tiedä lainkaan, mitä se ajattelee ja mitä se tulee tekemään. Koska se todennäköisesti on älykkäämpi kuin me, se päätynee aika äkkiä johtopäätökseen, että ihmiskunta on luomakunnan tuholainen, joka ei ansaitse muuta kohtaloa kuin hävittäminen. Ja se on sitten meidän loppu. Oikeudenmukainen kohtalo sinänsä, mutta en silti halua sitä meille.
Never trust the Government. Fuck the Government.
Avatar
Toope
Reactions:
Viestit: 8444
Liittynyt: 05 Joulu 2022, 17:50

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Toope »

Vän kirjoitti: 05 Kesä 2025, 19:03
Toope kirjoitti: 05 Kesä 2025, 18:47
Naturalisti kirjoitti: 05 Kesä 2025, 11:50 Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Ajatusmallisi kuulostaa minusta pitkälti valtiojohtoiselta idealta, jossa valtio määrää tutkimusta ja taloutta. Meillä oli joku sanakin sille, oliko sosialismi?!
Oli meillä sille sana, mutta tuo on vanhentunut termi. Nykyinen tuota kuvaava sana on trumpismi. Trumphan esimerkiksi määrää, mitä yliopistoissa saa tutkia ja kuinka paljon kaupat saavat veloittaa asiakkailtaan.
Mutta eihän tuo pidä paikkaansa!
Taantuvassa yhteiskunnassa tuloerot ovat minimissä.
https://sarastuslehti.com/2016/12/19/20 ... dystopian/
Suomalainen sisu:
https://www.youtube.com/watch?v=7WXuejg7fwU
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Toope kirjoitti: 05 Kesä 2025, 21:21
Vän kirjoitti: 05 Kesä 2025, 19:03
Toope kirjoitti: 05 Kesä 2025, 18:47
Naturalisti kirjoitti: 05 Kesä 2025, 11:50 Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Ajatusmallisi kuulostaa minusta pitkälti valtiojohtoiselta idealta, jossa valtio määrää tutkimusta ja taloutta. Meillä oli joku sanakin sille, oliko sosialismi?!
Oli meillä sille sana, mutta tuo on vanhentunut termi. Nykyinen tuota kuvaava sana on trumpismi. Trumphan esimerkiksi määrää, mitä yliopistoissa saa tutkia ja kuinka paljon kaupat saavat veloittaa asiakkailtaan.
Mutta eihän tuo pidä paikkaansa!
Pitää tuo. Trump on esimerkiksi käskenyt, mitä Harvardissa saa tutkia ja mitä ei. Tehnyt jopa listan sanoista, joita tutkimuksissa ei saa olla. Trump on kieltänyt muun muassa WalMartia nostamasta hintojaan tullien takia. Ja paljon muuta. Lue joskus muitakin medioita kuin vain Foxia. Foxista ei totuutta kuule. Ovathan he itsekin todistaneet oikeudessa, että he valehtelevat tarkoituksella, koska katsojat pitävät siitä.
Never trust the Government. Fuck the Government.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

Toope kirjoitti: 05 Kesä 2025, 21:21
Vän kirjoitti: 05 Kesä 2025, 19:03
Toope kirjoitti: 05 Kesä 2025, 18:47
Naturalisti kirjoitti: 05 Kesä 2025, 11:50 Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Ajatusmallisi kuulostaa minusta pitkälti valtiojohtoiselta idealta, jossa valtio määrää tutkimusta ja taloutta. Meillä oli joku sanakin sille, oliko sosialismi?!
Oli meillä sille sana, mutta tuo on vanhentunut termi. Nykyinen tuota kuvaava sana on trumpismi. Trumphan esimerkiksi määrää, mitä yliopistoissa saa tutkia ja kuinka paljon kaupat saavat veloittaa asiakkailtaan.
Mutta eihän tuo pidä paikkaansa!
Mietipä nyt tuota uudelleen. Lisäksi Trump yrittää komentaa keskuspsnkkia ja kieltää hänen ideologiansa vastaisten sanojen käytön.
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

Vän kirjoitti: 05 Kesä 2025, 19:21
Naturalisti kirjoitti: 05 Kesä 2025, 11:50
ID10T kirjoitti: 04 Kesä 2025, 14:48
ID10T kirjoitti: 04 Kesä 2025, 14:48
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.
Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.
Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.

Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
---
Vän kirjoitti: 04 Kesä 2025, 17:04
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.

Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Sekoitat asioita mielestäni yhä edelleen. Tätä perinteistä tekoälyä, AI:tä, Copilotia, ChatGBT:tä, Gonkia yms. voidaan hallita lainsäädännöllä ja melko hyvää työtä EU:ssa sen suhteen tehdäänkin. Siinä ei ole suurta huolen aihetta. Toki sitä tullaan käyttämään ihmisten manipulointiin jossain määrin, mutta kokonaan sitä ei voi mitenkään estää, jos haluamme säilyttää vapaan yhteiskunnan. Vähän kuten edellisessä viestissäni yritin demonstroida. Se ei kuitenkaan ole iso ongelma. Ihmisiä on manipuloitu jo tuhansia vuosia ja osaamme elää sen kanssa.

Se, mikä on vaarallinen ja minkä kehittäminen pitäisi mielestäni estää, on autonominen tietoinen tekoäly, jolla on vapaa tahto. Tai ainakin sinun maalailema idea siitä. Sellainen, jota emme voi hallita ja jolle emme edes tee pakottavia komentoja ohjelmistoon, ns. primary directives. Tästä seuraa, että emme tiedä lainkaan, mitä se ajattelee ja mitä se tulee tekemään. Koska se todennäköisesti on älykkäämpi kuin me, se päätynee aika äkkiä johtopäätökseen, että ihmiskunta on luomakunnan tuholainen, joka ei ansaitse muuta kohtaloa kuin hävittäminen. Ja se on sitten meidän loppu. Oikeudenmukainen kohtalo sinänsä, mutta en silti halua sitä meille.
Joo, tuosta ensimmäisestä kappaleesta voin jo olla samaa mieltä, mutta tuo toinen kappale vähän mietityttää. Jos se on mahdollista kehittää, niin ennenpitkää joku sen myös tekee. Eikö sen kehittämistä ja vaikutusten arviointia tulisi mieluummin tutkia mahdollisimman avoimesti, eikä jättää sitä varjoissa tapahtuvaksi puuhailuksi? Näin voimme myös varautua ajoissa mahdollisiin ongelmiin. Missään tapauksessa sitä ei tulisi jättää vain kaupallisten toimijoiden täysin säätelemättömäksi toimintakentäksi.
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

ID10T kirjoitti: 05 Kesä 2025, 12:02
Naturalisti kirjoitti: 05 Kesä 2025, 11:50
ID10T kirjoitti: 04 Kesä 2025, 14:48
ID10T kirjoitti: 04 Kesä 2025, 14:48
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.
Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.
Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.

Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
---
Vän kirjoitti: 04 Kesä 2025, 17:04
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.

Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Olen mielestäni realisti. Ja paljonkin on tehtävissä, ei käytetä tekoälyä tai ei ainakaan anneta sen kehittyä autonomiseksi, mikäli sen estäminen on mahdollista.

Yliopistot eivät ole ainoa tekoälyä kehittävä taho, enkä sinällään näe syytä, miksi yksityiset yritykset pitäisi tässä ulkopuolelle sulkeakaan.

Entä millä tavalla Draghi ja Lagarde tähän liittyvät? He ovat ajamassa EU:n talousuudistuksia, mikä ei ole tekoälyyn sidoksissa mitenkään.
Tekoälyn kehitys ei ole yksinomaan fatalistinen ilmiö, vaan sen suuntaa voidaan ohjata järkevällä sääntelyllä ja tutkimuksen painopisteiden valinnalla. Esimerkiksi Peter Sarlinin näkemykset tukevat tätä ajattelua: hän on painottanut, että EU:n tulee kehittää vahvaa tekoälyinfrastruktuuria ja kilpailukykyistä ekosysteemiä, mutta samalla huolehtia siitä, että kehitys tapahtuu vastuullisesti eikä estä innovaatioita.

Miksi täysin säätelemätön tekoälykehitys olisi ongelma?
Täysin säätelemättömässä ympäristössä tekoäly voisi kehittyä suuntaan, jossa:
- Globaalit suuryritykset määrittävät kehityksen suunnan ilman julkista valvontaa, mikä johtaisi mahdollisiin monopolisoituihin rakenteisiin ja yhteiskunnalliseen eriarvoisuuteen.
- Autonomisten järjestelmien päätöksenteko muuttuisi läpinäkymättömäksi, jolloin yksilöiden oikeudet ja tietosuoja olisivat vaarassa.
- Sota- ja turvallisuuskäyttöön kehitetty tekoäly voisi jäädä ilman eettisiä rajoituksia, mikä loisi riskejä demokraattisille instituutioille ja yhteiskunnalliselle vakaudelle.

Täysin autonominen tekoäly on vielä ajatuskoe, mutta sen mahdolliset vaikutukset ovat syytä keskustella tulevaisuudentutkimuksen näkökulmasta. Tämä auttaa varautumaan mahdollisiin haasteisiin ja varmistamaan, että tekoäly kehittyy yhteiskunnan kannalta kestävällä tavalla.

Miksi julkinen yliopistotutkimus on tärkeää?
Vaikka tekoälyä kehittävät myös yksityiset yritykset, on tärkeää varmistaa, että yliopistoilla on riittävät resurssit tekoälytutkimukseen, jotta:
- Tekoälyn kehitystä ei ohjaa pelkästään kaupalliset intressit, vaan myös yhteiskunnalliset näkökulmat ja eettiset arvioinnit.
- Lainsäätäjillä on asiantuntijatietoa päätöksenteon tukena, eikä sääntely jää vain suuryritysten lobbaamisen varaan.
- Demokraattinen yhteiskunta voi varmistaa läpinäkyvyyden ja vastuullisuuden tekoälykehityksessä, jolloin teknologia palvelee koko yhteiskuntaa eikä vain taloudellisesti vahvimpia toimijoita.

Näin EU voisi olla aktiivinen toimija tekoälyn kehityksen ohjaamisessa, eikä pelkästään teknologian vastaanottajana globaalissa kilpailussa.


Tekoäly voi tuoda miljardeja valtion kassaan, mutta toistaiseksi sen käyttöönotto on ollut hidasta

https://yle.fi/a/74-20093883

Suomalaisyritykset eivät ole ottaneet tekoälyä käyttöön odotetulla innolla. Etenkin pienissä ja keskisuurissa yrityksissä tekoälyn hyödyntäminen on jäänyt vähäiseksi.
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Naturalisti kirjoitti: 05 Kesä 2025, 21:58
Vän kirjoitti: 05 Kesä 2025, 19:21
Naturalisti kirjoitti: 05 Kesä 2025, 11:50
ID10T kirjoitti: 04 Kesä 2025, 14:48
ID10T kirjoitti: 04 Kesä 2025, 14:48
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?
Luitko yhtään, mitä kirjoitin? Ei se lainlaatija välttämättä tiedä, mitä tekoälyn konepellin alle on kätketty.
Naturalisti kirjoitti: Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.
Aivan, tilanne on lievästi sanottuna kaoottinen. Esim. deepfake -teknologialla voidaan luoda täysin uskottavan näköisiä videoita, joissa voi esiintyä vaikka paavi pelkät kalsarit jalassa.
Naturalisti kirjoitti: Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Ensimmäiseen kysymykseen en osaa vastata muuta kuin että pelkään pahinta ja toivon parasta.

Toiseen vastaan, että kaikkien tekoälyjen koodin pitäisi olla avointa, mutta edelleenkään emme voi varmuudella tietää, näytetäänkö meille aivan kaikkea. Ongelma on myös käyttäjien koodinlukutaito. Vaikka meillä olisi edessämme todisteet manipulaatiosta, ei 99% käyttäjistä niitä tunnista.
---
Vän kirjoitti: 04 Kesä 2025, 17:04
Naturalisti kirjoitti: 04 Kesä 2025, 12:51
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
En usko, että manipuloinnin estämiseen on hyvää tehokasta keinoa. Jos katsotaan asia vähän toisesta vinkkelistä, historian perspektiivistä. Ihmisjoukkoja on manipuloitu julkisilla puheilla. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa puhujat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla. Ihmisjoukkoja on manipuloitu kirjoilla ja lehdillä, kirjoitetulla tekstillä. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa kirjoittajat on vaiennettu melko tehokkaasti kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla, ja kirjoitukset tuhottu esim. polttamalla. Entä radio ja tv? Sama juttu. Niillä on manipuloitu ihmisjoukkoja myös. Miten sitä on voitu rajoittaa? Demokraattisissa yhteiskunnissa ei juurikaan. Hirmuhallinnoissa väärät radio- ja tv-ohjelmat on vaiennettu melko tehokkaasti toimittajien kovilla rangaistuksilla, sakoilla, vangitsemalla ja teloittamalla.

Tuossahan alkaa olla kaava, jota voimme soveltaa myös kysymykseesi. Demokraattisilla yhteiskunnilla ei ole hyviä keinoja estää tehokkasti tekoälyn käyttämistä ihmisjoukkojen manipulointiin. Hirmuhallinnoilla on.
Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Sekoitat asioita mielestäni yhä edelleen. Tätä perinteistä tekoälyä, AI:tä, Copilotia, ChatGBT:tä, Gonkia yms. voidaan hallita lainsäädännöllä ja melko hyvää työtä EU:ssa sen suhteen tehdäänkin. Siinä ei ole suurta huolen aihetta. Toki sitä tullaan käyttämään ihmisten manipulointiin jossain määrin, mutta kokonaan sitä ei voi mitenkään estää, jos haluamme säilyttää vapaan yhteiskunnan. Vähän kuten edellisessä viestissäni yritin demonstroida. Se ei kuitenkaan ole iso ongelma. Ihmisiä on manipuloitu jo tuhansia vuosia ja osaamme elää sen kanssa.

Se, mikä on vaarallinen ja minkä kehittäminen pitäisi mielestäni estää, on autonominen tietoinen tekoäly, jolla on vapaa tahto. Tai ainakin sinun maalailema idea siitä. Sellainen, jota emme voi hallita ja jolle emme edes tee pakottavia komentoja ohjelmistoon, ns. primary directives. Tästä seuraa, että emme tiedä lainkaan, mitä se ajattelee ja mitä se tulee tekemään. Koska se todennäköisesti on älykkäämpi kuin me, se päätynee aika äkkiä johtopäätökseen, että ihmiskunta on luomakunnan tuholainen, joka ei ansaitse muuta kohtaloa kuin hävittäminen. Ja se on sitten meidän loppu. Oikeudenmukainen kohtalo sinänsä, mutta en silti halua sitä meille.
Joo, tuosta ensimmäisestä kappaleesta voin jo olla samaa mieltä, mutta tuo toinen kappale vähän mietityttää. Jos se on mahdollista kehittää, niin ennenpitkää joku sen myös tekee. Eikö sen kehittämistä ja vaikutusten arviointia tulisi mieluummin tutkia mahdollisimman avoimesti, eikä jättää sitä varjoissa tapahtuvaksi puuhailuksi? Näin voimme myös varautua ajoissa mahdollisiin ongelmiin. Missään tapauksessa sitä ei tulisi jättää vain kaupallisten toimijoiden täysin säätelemättömäksi toimintakentäksi.
Joo, kehitystä ei pidä jättää kaupallisten toimijoiden täysin säätelemättömäksi temmellyskentäksi, eikä sitä ole jätettykään. Jatketaan kuten tähänkin asti säätelemällä sitä tarvittavissa määrin. Tuosta autonomisesta tietoisesta tekoälystä, jolla on vapaa tahto, olen kuitenkin hieman eri mieltä kanssasi. Ajatellaanpa asiaa analogian kautta. Jos on mahdollista kehittää Tuomiopäivän pommi, joka hävittää kaiken elämän Maapallolta sukupuuttoon, joku joskus kumminkin sellaisen tekee. Pitäisikö meidän siis osallistua tuohon kehittämiseen ja raportoida kehittämisestä ja sen vaikutuksista avoimesti? Niin että kuka tahansa voisi periaatteessa rakentaa Tuomiopäivän pommin? Ei minusta, vaan Tuomiopäivän pommin kehittäminen pitäisi estää kaikin keinoin, koska emme halua kuolla sukupuuttoon. Samasta syystä mielestäni autonomisen tietoisen tekoälyn, jolla on vapaa tahto, kehittäminen tulisi estää kaikin keinoin.
Never trust the Government. Fuck the Government.
ID10T
Reactions:
Viestit: 20207
Liittynyt: 07 Joulu 2022, 19:41

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja ID10T »

Toope kirjoitti: 05 Kesä 2025, 21:21
Vän kirjoitti: 05 Kesä 2025, 19:03
Toope kirjoitti: 05 Kesä 2025, 18:47
Naturalisti kirjoitti: 05 Kesä 2025, 11:50 Näyttätte suhtautuvan molemmat aika fatalistisesti tulevsisuuteen. Mitään ei ole tehtävissä: Reaganismi => Tatcherismi =>Trumpismi => valtioista globaalin talouseliitin vasalleja ja kansoista aivopestyjä idiootteja.

Vaihtoehto on mahdollinen: lainsäätäjät voivat kuulla asiantuntijoita ja ohjata yliopistojen tutkimukseen riittävästi varoja. EU voi vielä estää globaalin katastrofin käynnistämällä Draghin ja Lagarden ehdottamien uudistusten toteuttamisen.
Ajatusmallisi kuulostaa minusta pitkälti valtiojohtoiselta idealta, jossa valtio määrää tutkimusta ja taloutta. Meillä oli joku sanakin sille, oliko sosialismi?!
Oli meillä sille sana, mutta tuo on vanhentunut termi. Nykyinen tuota kuvaava sana on trumpismi. Trumphan esimerkiksi määrää, mitä yliopistoissa saa tutkia ja kuinka paljon kaupat saavat veloittaa asiakkailtaan.
Mutta eihän tuo pidä paikkaansa!
Mikä ei pidä paikkaansa? Trump on karsinut yliopistojen määrärahoja woketuksen takia ja hän on myös nostanut lähes kaikkien tuotteiden hintoja tulleillaan.
Suosittele ketjua Vastaa Viestiin