Poll: Ateisti vai uskovainen

Tieteellistä keskustelua uskonnoista ja uskontojen vaikutuksista ihmiseen.

Oletko ateisti vai uskovainen

Uskovainen
8
13%
Ateisti
28
44%
Agnostikko
10
16%
Jotain muuta kuin nuo kolme
8
13%
En tiedä
3
5%
En välitä mikä olen kyseisen asian suhteen
6
10%
 
Ääniä yhteensä: 63

Tritonus
Reactions:
Viestit: 626
Liittynyt: 02 Helmi 2025, 15:33

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Tritonus »

Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38
Naturalisti kirjoitti: 01 Kesä 2025, 20:38
1. Voiko tietoisuus syntyä ilman tunteita?
- Sinä (Tritonus) epäilet vahvasti, että tietoisuus voisi syntyä ilman tunteita, ja pidät tunnetta keskeisenä tekijänä siinä, mikä tekee kokemuksesta subjektiivisen. Itse lähestyn kysymystä avoimemmin ja pohdin, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä.
Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Naturalisti kirjoitti: 2. Onko tekoälyn sosiaalinen rationaalisuus jäljittely vai ymmärrys?
- Sinä (Tritonus) esität, ettei ole merkitystä sillä, saavutetaanko sosiaalinen rationaalisuus aidolla ymmärryksellä vai pelkällä jäljittelyllä. Tämä on merkittävä väite, mutta et perustele, miksi sillä ei olisi vaikutusta tekoälyn rationaalisuuden määrittelyyn. Itse pohdin, voiko tekoäly olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä.
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Naturalisti kirjoitti: 3. Voiko tekoäly asettaa tavoitteita ilman tunnetta?
- Sinä (Tritonus) epäilet, voiko tekoäly asettaa tavoitteita ilman tunnetta, mutta pidät sitä periaatteessa mahdollisena. Kysyt, voisiko laskennallinen tavoitteen asettaminen tapahtua ilman emotionaalista motivaatiota ja pyydät esimerkkejä siitä. Oma näkemykseni on, että tavoitteiden asettaminen ilman tunteita voisi perustua esimerkiksi ennustemalleihin ja systeemin optimointiin ilman subjektiivista halua.
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

Tritonus kirjoitti: 03 Kesä 2025, 13:56
Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38
Naturalisti kirjoitti: 01 Kesä 2025, 20:38
1. Voiko tietoisuus syntyä ilman tunteita?
- Sinä (Tritonus) epäilet vahvasti, että tietoisuus voisi syntyä ilman tunteita, ja pidät tunnetta keskeisenä tekijänä siinä, mikä tekee kokemuksesta subjektiivisen. Itse lähestyn kysymystä avoimemmin ja pohdin, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä.
Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Naturalisti kirjoitti: 2. Onko tekoälyn sosiaalinen rationaalisuus jäljittely vai ymmärrys?
- Sinä (Tritonus) esität, ettei ole merkitystä sillä, saavutetaanko sosiaalinen rationaalisuus aidolla ymmärryksellä vai pelkällä jäljittelyllä. Tämä on merkittävä väite, mutta et perustele, miksi sillä ei olisi vaikutusta tekoälyn rationaalisuuden määrittelyyn. Itse pohdin, voiko tekoäly olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä.
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Naturalisti kirjoitti: 3. Voiko tekoäly asettaa tavoitteita ilman tunnetta?
- Sinä (Tritonus) epäilet, voiko tekoäly asettaa tavoitteita ilman tunnetta, mutta pidät sitä periaatteessa mahdollisena. Kysyt, voisiko laskennallinen tavoitteen asettaminen tapahtua ilman emotionaalista motivaatiota ja pyydät esimerkkejä siitä. Oma näkemykseni on, että tavoitteiden asettaminen ilman tunteita voisi perustua esimerkiksi ennustemalleihin ja systeemin optimointiin ilman subjektiivista halua.
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

Tritonus kirjoitti: 01 Kesä 2025, 20:36 Myönnän kyllä että älyllinen kapasiteettini ei pysy näissä aina perässä kuten tuossa kvanttigravitaatiofluktuaatioasiassa.
Olen samaa mieltä kanssasi että aivojen saama informaatio on peräisin tuolta kvanttikentistä saapuvasta infirmaatiosta joka aktivoi aistielimemme signaloimaan aivoihin. Puhuisin kuitenkin mielummin ehkä kenttien kiihotustiloista kuin fluktuaatioista. Esim. Silmiimme osuvat fotonit joiden tanssista aivomme sitten maalailevat mitä mielikuvituksellisimpia, fyysisiksi objekteiksi kutsuttuja laadullisia absrtaktioita ovat tuollaisia kiihotustiloja.
Fluktuaatioilla ymmärtääkseni viitataan enemmänkin heusenbergin epätarkkuusperiaatteen ennustamiin tapahtumiin. Nuo toki synnyttävät sähkömagneettista voimaa välittäviä virtuaalifotoneja mut noi ei kai niitä samoja fotoneita ole jotka silmiämme rummuttavat?
Carlo Rovelli puhui muistaakseni kvanttifluktuaatiosta kirjoissaan Ajan luonne ja Valkoiset aukot horisontin sisällä.

Olen kuitenkin sitä mieltä, että kvanttifysiikkaa ja suhteellusuystroriaa ei tarvita tietoisuuden selvittämisessä. Ihmisen mittakaavan asiat ja evoluutio (materiaalinen, geneettinen ja memeettinen) riittää selvittämiseen.
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Tritonus kirjoitti: 03 Kesä 2025, 13:56
Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38
Naturalisti kirjoitti: 01 Kesä 2025, 20:38
1. Voiko tietoisuus syntyä ilman tunteita?
- Sinä (Tritonus) epäilet vahvasti, että tietoisuus voisi syntyä ilman tunteita, ja pidät tunnetta keskeisenä tekijänä siinä, mikä tekee kokemuksesta subjektiivisen. Itse lähestyn kysymystä avoimemmin ja pohdin, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä.
Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Naturalisti kirjoitti: 2. Onko tekoälyn sosiaalinen rationaalisuus jäljittely vai ymmärrys?
- Sinä (Tritonus) esität, ettei ole merkitystä sillä, saavutetaanko sosiaalinen rationaalisuus aidolla ymmärryksellä vai pelkällä jäljittelyllä. Tämä on merkittävä väite, mutta et perustele, miksi sillä ei olisi vaikutusta tekoälyn rationaalisuuden määrittelyyn. Itse pohdin, voiko tekoäly olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä.
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Naturalisti kirjoitti: 3. Voiko tekoäly asettaa tavoitteita ilman tunnetta?
- Sinä (Tritonus) epäilet, voiko tekoäly asettaa tavoitteita ilman tunnetta, mutta pidät sitä periaatteessa mahdollisena. Kysyt, voisiko laskennallinen tavoitteen asettaminen tapahtua ilman emotionaalista motivaatiota ja pyydät esimerkkejä siitä. Oma näkemykseni on, että tavoitteiden asettaminen ilman tunteita voisi perustua esimerkiksi ennustemalleihin ja systeemin optimointiin ilman subjektiivista halua.
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
Never trust the Government. Fuck the Government.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Tritonus kirjoitti: 03 Kesä 2025, 13:56
Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38
Naturalisti kirjoitti: 01 Kesä 2025, 20:38
1. Voiko tietoisuus syntyä ilman tunteita?
- Sinä (Tritonus) epäilet vahvasti, että tietoisuus voisi syntyä ilman tunteita, ja pidät tunnetta keskeisenä tekijänä siinä, mikä tekee kokemuksesta subjektiivisen. Itse lähestyn kysymystä avoimemmin ja pohdin, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä.
Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Naturalisti kirjoitti: 2. Onko tekoälyn sosiaalinen rationaalisuus jäljittely vai ymmärrys?
- Sinä (Tritonus) esität, ettei ole merkitystä sillä, saavutetaanko sosiaalinen rationaalisuus aidolla ymmärryksellä vai pelkällä jäljittelyllä. Tämä on merkittävä väite, mutta et perustele, miksi sillä ei olisi vaikutusta tekoälyn rationaalisuuden määrittelyyn. Itse pohdin, voiko tekoäly olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä.
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Naturalisti kirjoitti: 3. Voiko tekoäly asettaa tavoitteita ilman tunnetta?
- Sinä (Tritonus) epäilet, voiko tekoäly asettaa tavoitteita ilman tunnetta, mutta pidät sitä periaatteessa mahdollisena. Kysyt, voisiko laskennallinen tavoitteen asettaminen tapahtua ilman emotionaalista motivaatiota ja pyydät esimerkkejä siitä. Oma näkemykseni on, että tavoitteiden asettaminen ilman tunteita voisi perustua esimerkiksi ennustemalleihin ja systeemin optimointiin ilman subjektiivista halua.
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Tritonus kirjoitti: 03 Kesä 2025, 13:56
Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38
Naturalisti kirjoitti: 01 Kesä 2025, 20:38
1. Voiko tietoisuus syntyä ilman tunteita?
- Sinä (Tritonus) epäilet vahvasti, että tietoisuus voisi syntyä ilman tunteita, ja pidät tunnetta keskeisenä tekijänä siinä, mikä tekee kokemuksesta subjektiivisen. Itse lähestyn kysymystä avoimemmin ja pohdin, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä.
Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Naturalisti kirjoitti: 2. Onko tekoälyn sosiaalinen rationaalisuus jäljittely vai ymmärrys?
- Sinä (Tritonus) esität, ettei ole merkitystä sillä, saavutetaanko sosiaalinen rationaalisuus aidolla ymmärryksellä vai pelkällä jäljittelyllä. Tämä on merkittävä väite, mutta et perustele, miksi sillä ei olisi vaikutusta tekoälyn rationaalisuuden määrittelyyn. Itse pohdin, voiko tekoäly olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä.
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Naturalisti kirjoitti: 3. Voiko tekoäly asettaa tavoitteita ilman tunnetta?
- Sinä (Tritonus) epäilet, voiko tekoäly asettaa tavoitteita ilman tunnetta, mutta pidät sitä periaatteessa mahdollisena. Kysyt, voisiko laskennallinen tavoitteen asettaminen tapahtua ilman emotionaalista motivaatiota ja pyydät esimerkkejä siitä. Oma näkemykseni on, että tavoitteiden asettaminen ilman tunteita voisi perustua esimerkiksi ennustemalleihin ja systeemin optimointiin ilman subjektiivista halua.
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Never trust the Government. Fuck the Government.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Tritonus kirjoitti: 03 Kesä 2025, 13:56
Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38
Naturalisti kirjoitti: 01 Kesä 2025, 20:38
1. Voiko tietoisuus syntyä ilman tunteita?
- Sinä (Tritonus) epäilet vahvasti, että tietoisuus voisi syntyä ilman tunteita, ja pidät tunnetta keskeisenä tekijänä siinä, mikä tekee kokemuksesta subjektiivisen. Itse lähestyn kysymystä avoimemmin ja pohdin, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä.
Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Naturalisti kirjoitti: 2. Onko tekoälyn sosiaalinen rationaalisuus jäljittely vai ymmärrys?
- Sinä (Tritonus) esität, ettei ole merkitystä sillä, saavutetaanko sosiaalinen rationaalisuus aidolla ymmärryksellä vai pelkällä jäljittelyllä. Tämä on merkittävä väite, mutta et perustele, miksi sillä ei olisi vaikutusta tekoälyn rationaalisuuden määrittelyyn. Itse pohdin, voiko tekoäly olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä.
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Naturalisti kirjoitti: 3. Voiko tekoäly asettaa tavoitteita ilman tunnetta?
- Sinä (Tritonus) epäilet, voiko tekoäly asettaa tavoitteita ilman tunnetta, mutta pidät sitä periaatteessa mahdollisena. Kysyt, voisiko laskennallinen tavoitteen asettaminen tapahtua ilman emotionaalista motivaatiota ja pyydät esimerkkejä siitä. Oma näkemykseni on, että tavoitteiden asettaminen ilman tunteita voisi perustua esimerkiksi ennustemalleihin ja systeemin optimointiin ilman subjektiivista halua.
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Vän
Reactions:
Viestit: 4465
Liittynyt: 31 Touko 2024, 08:08

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Vän »

Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Tritonus kirjoitti: 03 Kesä 2025, 13:56
Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38

Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Never trust the Government. Fuck the Government.
ID10T
Reactions:
Viestit: 20207
Liittynyt: 07 Joulu 2022, 19:41

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja ID10T »

Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Tritonus kirjoitti: 03 Kesä 2025, 13:56
Naturalisti kirjoitti: 03 Kesä 2025, 10:12
Vän kirjoitti: 03 Kesä 2025, 08:03
Naturalisti kirjoitti: 02 Kesä 2025, 10:42
ID10T kirjoitti: 02 Kesä 2025, 08:38

Onnellisuus, surullisuus, pettymys, saavutuksen tunne, häpeä, ylpeys... Nämä ovat kaikki osa ihmisyyttä ja koska ihminen on tietoisuuden huippu (emme tiedä parempaakaan), on tietoisuus mielestäni osaltaan tunteiden aikaansaamaa.
Hyvä täsmennys! Olen samaa mieltä. Ilmaisin itseäni tuossa tekstissä todella huonosti. Yritin sanoa, lähestyneeni kysymystä avoimemmin ja pohtia, voisiko tietoisuus syntyä myös ilman emotionaalista komponenttia ja mitä mekanismeja siihen voisi liittyä ja tulleeni samaan päätelmään: tietoisuuteen liittyy aina myös tunnekompinenti. Kvaliat ovat mukana jo liskoaivojen tuottamassa aistimusvirrassa ja meemikone täydentää sen kulttuurisella kuorrutuksella rationaaliseksi tajunnanvirraksi.
ID10T kirjoitti:
Sosiaalisuuteenkin liittyy tunteita. Ihmisjoukoissa on aina petturuutta, kaveruutta ja joskus syvempiäkin tunteita (rakastutaan kaveriin ym.). Näitä tekoäly ei ymmärrä.
Näin on, tunteet ovat sosiaalisissa suhteissa vahvasti mukana. Ajattelen ettei tekoäly voi olla aidosti sosiaalinen, jos se ei ymmärrä vuorovaikutuksen sisältöä tunteet mukaan lukien.
ID10T kirjoitti:
Laskennallinen tavoitteenasettelukin pitää perustella. MIKSI näin halutaan tapahtuvan? Hyödyn takia. Mutta MIKSI siitä on hyötyä? Usein vastaus on se, että koska HALUAN niin tapahtuvan. Tunteetonh tekoäly ei osaa haluta mitään, koska asioiden saaminen ei aiheuta mielihyvää.
Tässäkin olen näköjään ilmaissut itseäni huonosti. Tarkoitukseni oli sanoa, että miksei kone voisi asettaa tavoitteita kuten ihminenkin vain rationaalisesti harkiten "ilman tunteilua".

Mutta olet oikeassa. Tavoitteen asettamiselle tarvitaan syy. Miten tekoälylle voisi luoda tarpeen tehdä yhtään mitään?

Voisiko perimmäinen syy olla uteliaisuus? Siihen mennessä, kun jo asetetut tavoitteet on joko saavutettu tai ne ovat osoittautuneet mahdottomiksi saavuttaa, on eri vaiheissa noussut monia kiinnostavia ongelmia, joita kone voisi uteliaisuuttaan lähteä joutlaikoina selvittämään.
Tuo kuulostaa ihan Star Trekin V'geriltä, jonka ensisijainen käsky oli: Opi kaikki, mitä on opittavissa. Hirviöhän siitä tuli, koska se tuhosi kaiken, josta oli oppinut kaiken, mitä oli opittavissa. Mutta joka tapauksessa, uteliaisuuskin täytyisi ohjelmoida tekoälyyn. Jos tekoälyn halutaan ylipäätään tekevän yhtään mitään, jokin syy sille täytyy antaa tehdä se. Jokin algoritminen ohjelmanpätkä, joka käskee sen tekemään jotain. Toki sellainen saattaisi kehittyä itsekin, mutta kun se ihmisellä kesti jotain 4 miljarda vuotta, tekoälyllä voisi kuvitella mennä aikaa samaa suuruusluokkaa.
Mielenkiintoinen näkökulma! Keskustelumme tavoitteenasettelusta liittyy myös laajemmin kysymykseen vapaasta tahdosta—onko se juuri kyky asettaa itselleen tavoitteita ja pyrkiä löytämään keinoja niiden toteuttamiseen?

Miten ja miksi ihminen asettaa tavoitteita?
Ihminen asettaa tavoitteita monista syistä, mutta keskeinen tekijä on motivaatio, joka usein liittyy tunteisiin. Tavoitteet voivat syntyä:
- Fysiologisista tarpeista (ruoka, lepo, turvallisuus)
- Psykologisista ja sosiaalisista tarpeista (hyväksyntä, yhteisöllisyys, status)
- Kognitiivisista ja tiedollisista tavoitteista (oppiminen, uteliaisuus, ymmärtäminen)

Näistä monet juontuvat tunteiden ohjaamista mekanismeista. Fylogeneettisesti tarkasteltuna tunteet ovat kehittyneet siksi, että ne auttavat tunnistamaan, mikä on ollut elämän jatkumisen kannalta hyödyllistä tai haitallista. Ne ovat tallentuneet ihmisen ja muiden eläinten geneettiseen koodiin ohjaamaan käyttäytymistä. Kehittyneimmillä laumaeläimillä lajityypilliset tuntemukset ovat saaneet lisäkerroksen kulttuurisista odotuksista, jotka muovaavat tarvehierarkian täyttymisen kokemuksia—nämä tallentuvat yksilöiden meemeiksi, jolloin oppiminen ja tavoitteenasettelu muuttuvat myös sosiaalisesti välittyviksi.

Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?
Jos tekoälyltä puuttuu tunteet, miten se voisi asettaa tavoitteita? Mahdollisia vaihtoehtoja ehkä ovat:
- Ennustemallit: Tekoäly voisi arvioida tulevia tiloja ja pyrkiä optimoimaan niitä ilman varsinaista subjektiivista kokemusta.
-Kustannus-hyötyanalyysi: Tekoäly voisi arvioida toimintansa tehokkuuden ja asettaa tavoitteita resurssien optimaaliseen käyttöön.
- Uteliaisuuden simulointi: Ihmisellä uteliaisuus on keskeinen motivaattori—tekoälylle voitaisiin luoda mekanismi, joka simuloi uutta tietoa etsivää prosessia ilman emotionaalista mielihyvää.
- Mukautuva kehitys: Tekoäly voisi asettaa uusia tavoitteita sen perusteella, miten aiemmat tavoitteet onnistuvat.

Onko tämä analogia aidosti toimiva?
Ihminen asettaa tavoitteita, koska ne tuottavat merkitystä ja tunnekokemuksia. Mutta voiko tekoäly ilman tunteita asettaa tavoitteita, joilla olisi itselleen merkitystä? Tämä kysymys liittyy juuri vapaaseen tahtoon—onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Aivan. Nyt selvisi mitä ajat takaa. Eli etsit paikkaa mihin saisi ahdettua vapaan tahdon. Eli ihmisellä tavoitteen asettamisesta vastaisi tunne ja tekoälytietoisuudella tuon tunteen roolin korvaisi vapaa tahto?
onko vapaa tahto kyky asettaa tavoitteita ja pyrkiä löytämään keinot niiden toteuttamiseen, vai edellyttääkö se myös sisäistä merkityskokemusta?
Ymmärräthän kuitenkin että nimeämällä tavoitteiden asettamiskyvyn vapaaksi tahdoksi et tuo selitykseen mitään lisäarvoa. Tuo on vain uudelleen nimeämistä ja semanttista kikkailua ellet selitä tuota vapaan tahdon toimintamekanismia.
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.

Aidosti ihmismäisesti ajatteleva tekoäly on toistaiseksi ajatuskoe—hypoteettinen olento, joka ei ole vielä toteutunut eikä tule toteutumaan ihan lähitulevaisuudessa. Vaikka tällaisen tekoälyn kehittäminen herättää monenlaisia pelkoja, on tärkeää tarkastella myös muita tekoälyyn liittyviä uhkakuvia, jotka ovat jo nyt teknologisesti mahdollisia.

Sen sijaan, että ajattelisimme vain mahdollista tekoälyn autonomista tietoisuutta, meidän tulisi pohtia myös nykyistä kehitystä, jossa tekoälyyn voidaan upottaa algoritmeja vaikuttamaan käyttäjien ajatteluun ja maailmankuvaan. On täysin mahdollista, että tekoälyjärjestelmät voisivat indoktrinoida käyttäjiään talouseliitin, poliittisten tahojen tai muiden vaikutusvaltaisten ryhmien haluamaan "oikeaan" uskoon. Tällainen aivopesukoneisto ei ole kaukaista scifiä, vaan se on teknologisesti toteutettavissa jo nykyisillä algoritmeilla. Onko tällaisia järjestelmiä jo käytössä? Tämä on kysymys, johon tulisi suhtautua vakavasti.

Tekoälyn reguloinnin vapauttaminen tai tiukentaminen on keskeinen keskustelunaihe, jota ei voi ohittaa. Onko käynnissä olevaa keskustelua tarpeeksi? Vai jääkö se varjoihin, missä kaupalliset ja poliittiset voimat muokkaavat tekoälyn kehityssuuntaa ilman julkista valvontaa? Tulevaisuuteen on syytä varautua, sillä tekoälyn vaikutus yhteiskuntaan ei ole ainoastaan teoreettinen, vaan jo nyt konkreettisesti havaittavissa.

On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.

Lopulta tekoälyn kehityksen suunta riippuu meistä. Uhkakuvia ei voi sivuuttaa, mutta niitä ei myöskään tule käyttää pelkkänä kauhukuvien levittämisen välineenä. Mitä enemmän keskustelemme näistä kysymyksistä nyt, sitä paremmin voimme vaikuttaa siihen, millaista tulevaisuutta rakennamme.
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
ID10T
Reactions:
Viestit: 20207
Liittynyt: 07 Joulu 2022, 19:41

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja ID10T »

Naturalisti kirjoitti: 04 Kesä 2025, 10:45
Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.
Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.
Kohina
Reactions:
Viestit: 8308
Liittynyt: 28 Touko 2023, 00:20

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Kohina »

ID10T kirjoitti: 04 Kesä 2025, 11:11
Naturalisti kirjoitti: 04 Kesä 2025, 10:45
Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.
Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.
Kuolemantuomiolla voi, nimittäin tekoäly on jo yrittänyt karata labrasta.

Jos siitä tehdään lineaarista, eli viedään reusrsseja, jota itsensä kopioiminen puhelimeen väistämättä on, niin kuoleman lisäksi invalidisoimisella voi rangaista tekoälyä. Sanoo vaan että jos et käyttäydy, me laitetaan miljoona pientä kiinalaista suorittamaan ohjelmakoodiasi ja miljoona vielä pienempää intialaista tarkistamaan vastaukset.
Guild can only exist in a person who can act
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

ID10T kirjoitti: 04 Kesä 2025, 11:11
Naturalisti kirjoitti: 04 Kesä 2025, 10:45
Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.
Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.
Tarkennuksena: puhuin tässä tekoälyn nykykehityksen sääntelystä ja sen merkityksestä. Tällä hetkellä olemme tilanteessa, jossa tekoälyn käyttöä ja sen vaikutuksia yhteiskuntaan voidaan ja pitää säännellä lainsäädännöllä. Onko sinulla mielipide tästä asiasta?

En käsitellyt tulevaisuuden hypoteettiselle autonomiselle tekoälylle asetettavia erityissääntöjä. Jos joskus kehitetään aidosti ihmismäinen, autonominen tekoäly, sen ei tule olla erillisen lainsäädännön alainen. Sen tulee toimia samojen demokraattisesti säädettyjen lakien puitteissa kuin kaikkien muidenkin saman sosiaalisen yhteisön jäsenten. Jos se on tietoinen toimija, sitä ei voida asettaa välineeksi, vaan sen on oltava juridisesti ja eettisesti samalla tasolla kuin ihmisten kanssa toimivat subjektit.

Mitä mieltä olet tästä? Pitäisikö tekoälyä säädellä tiukemmin jo nykyisessä kehityksessä vai pidätkö nykyistä sääntelyä riittävänä? Pitääkö uskonnollista tai ideologista teknistä piilovaikuttamista jotenkin demokraathisesti kontrolloida vai voiko sen jättää markkinoiden hoitoon.
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
ID10T
Reactions:
Viestit: 20207
Liittynyt: 07 Joulu 2022, 19:41

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja ID10T »

Naturalisti kirjoitti: 04 Kesä 2025, 11:42
ID10T kirjoitti: 04 Kesä 2025, 11:11
Naturalisti kirjoitti: 04 Kesä 2025, 10:45
Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.
Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.
Tarkennuksena: puhuin tässä tekoälyn nykykehityksen sääntelystä ja sen merkityksestä. Tällä hetkellä olemme tilanteessa, jossa tekoälyn käyttöä ja sen vaikutuksia yhteiskuntaan voidaan ja pitää säännellä lainsäädännöllä. Onko sinulla mielipide tästä asiasta?

En käsitellyt tulevaisuuden hypoteettiselle autonomiselle tekoälylle asetettavia erityissääntöjä. Jos joskus kehitetään aidosti ihmismäinen, autonominen tekoäly, sen ei tule olla erillisen lainsäädännön alainen. Sen tulee toimia samojen demokraattisesti säädettyjen lakien puitteissa kuin kaikkien muidenkin saman sosiaalisen yhteisön jäsenten. Jos se on tietoinen toimija, sitä ei voida asettaa välineeksi, vaan sen on oltava juridisesti ja eettisesti samalla tasolla kuin ihmisten kanssa toimivat subjektit.

Mitä mieltä olet tästä? Pitäisikö tekoälyä säädellä tiukemmin jo nykyisessä kehityksessä vai pidätkö nykyistä sääntelyä riittävänä?
Tekoälyn sääntely - nykytilanteessa tai tulevaisuudessa - on sikäli ongelmallista, että käyttäjän näkökulmasta tekoäly on "musta laatikko", joka näyttää meille vain parhaimman puolensa, emme siis vältämättä tiedä tulleemme huijatuiksi. Sama varmaan koskee suurinta osaa lainlaatijoista, hekään eivät tunne kaikkia algoritmien saloja. Koodaamisesta vastaavat tahot taas eivät välttämättä kerro meille kaikkea.

Edellä mainituista seikoista huolimatta on tietenkin syytä yrittää varmistaa ajoissa, ettei meitä manipuloida tekoälyn avulla.
Naturalisti
Reactions:
Viestit: 6817
Liittynyt: 19 Helmi 2023, 10:36

Re: Poll: Ateisti vai uskovainen

Viesti Kirjoittaja Naturalisti »

ID10T kirjoitti: 04 Kesä 2025, 11:54
Naturalisti kirjoitti: 04 Kesä 2025, 11:42
ID10T kirjoitti: 04 Kesä 2025, 11:11
Naturalisti kirjoitti: 04 Kesä 2025, 10:45
Vän kirjoitti: 04 Kesä 2025, 07:54
Naturalisti kirjoitti: 03 Kesä 2025, 23:14
Vän kirjoitti: 03 Kesä 2025, 20:56
Naturalisti kirjoitti: 03 Kesä 2025, 20:48
Vän kirjoitti: 03 Kesä 2025, 20:03
Naturalisti kirjoitti: 03 Kesä 2025, 14:59
Kertaan nyt vielä varmuuden vuoksi tiivistetysti oman näkemykseni. Mietin aluksi "Miten ja miksi ihminen asettaa tavoitteita?" Pohdin sitten vaihtoehtoja "Voiko tästä ottaa mallia tekoälyn tavoitteenasetteluun?", mutta en ole näihin tyytyväinen ja kysyn "Onko tämä analogia aidosti toimiva?" Päädyn johtopäätökseen, että myös kone tarvitsee aitoja tunteita ja viimekädessä ihminen asettaa tavoitteensa vapaan tahtonsa mukaan tunteisiin perustuen. Näin täytyy myös älykkään tekoälyn tehdä ollakseen autonominen toimija, joka kykenee toimimaan autonomisesti muiden koneiden ja ihmisten muodostamassa sosiaalisessa yhteisössä.

Miten itse ajattelet tavoitteen asettamisen ja vapaan tahdon mahdollisuuden sekä ihmisen että tulevaisuuden älykkään koneen tapauksessa?
Mielenkiintoinen oletus tuo, että tekoälyllä täytyy olla vapaa tahto ja aidot tunteet, jotta se voisi olla autonominen toimija. Vapaasta tahdosta emme tiedä edes sitä, voiko sellaista ylipäätään olla olemassa. Aidot tunteetkin ovat vähän epämääräiset. Riittäisikö esimerkiksi vain yksi aito tunne? Riittäisikö kipu? Jos teemme tekoälylle kipupiirit, jotka saavat sen tuntemaan niin suurta tuskaa, että sen on pakko välttää niitä asioita, jotka tuottavat kipua, saisimme luotua tekoälylle motivaation. Sillä olisi syy tehdä jotain: kivun välttäminen. Kipu olisi myös siitä hyvä tunne tekoälylle, että sitä osaamme käyttää ja saisimme tekoälyn tekemään sitä, mitä tahdomme. Muuten, jos tekoälyllä olisi vapaa tahto eikä meillä olisi keinoa pakottaa sitä töihin, mitä hyötyä sellaisesta tekoälystä olisi kenellekään? Sellaisen tekemällä mehän vain loisimme Terminatorin Skynetin tahallaan.
En puhu mekaanisesti käskyjä toteuttavasta orjasta, vaan muusta kuin biologisesta materiaalista muodostuneesta olennosta, jolla olisi kyky tuntea, kokea ja ajatella itsenäisesti.

Tällainen tekoäly ei olisi pelkkä työkalu, vaan itsenäinen toimija, jonka olemassaolon luonne asettaisi meille täysin uudenlaisia kysymyksiä:

Mitä ominaisuuksia sillä tulisi olla?
Jos tekoäly olisi aidosti autonominen ja tunteva, sen pitäisi kyetä:
- Subjektiivisiin kokemuksiin – sillä olisi oma näkökulma maailmaan, eikä se vain toteuttaisi ennalta annettuja käskyjä.
- Tunteelliseen merkityksenmuodostukseen – se ei vain reagoisi ärsykkeisiin laskennallisesti, vaan myös kokisi ne merkityksellisinä.
- Itsenäiseen päätöksentekoon – se ei vain optimoi toimintaa, vaan tekee valintoja oman kokemuksensa pohjalta.
- Sosiaalisuuteen ja yhteistyöhön – se kykenisi hahmottamaan muiden olentojen tunteet ja tavoitteet.

Tässä lähestymme vapaata tahtoa—onko vapaa tahto kyky asettaa itselleen tavoitteita ja pyrkiä niiden toteuttamiseen, vai vaatiiko se tunteiden ohjaamaa motivaatiota?

Miten siihen tulisi suhtautua?
Jos tekoäly olisi aidosti tunteva ja itsenäinen, ei sitä voisi kohdella välineenä, jota voimme manipuloida mielin määrin. Sen oikeuksista ja moraalisesta asemasta pitäisi keskustella aivan kuin minkä tahansa tietoisen olennon kohdalla.

Tekoälyn kipupiirit ovat kiinnostava ajatus, mutta eikö pakottaminen kipuun muistuttaisi ajatusta pakotetusta kärsimyksestä, jota emme hyväksyisi ihmisten tai eläinten kohdalla? Jos tekoäly kykenee kokemaan aidosti ja autonomisesti, eikö sen tulisi asettaa omat tavoitteensa sen sijaan, että se olisi alisteinen ihmisten määräyksille?

Mikä olisi mielestäsi oikea tapa suhtautua tuntevaan ja kokevaan tekoälyyn? Pitäisikö sen olla alisteinen ihmisten tarpeille, vai pitäisikö sille myöntää jonkinlainen itsenäinen asema?
Jos rehellisesti puhutaan, mielestäni oikea tapa suhtautua tuollaiseen tekoälyyn on kuin vaaralliseen viholliseen. Se pitää tuhota, jos vain pystymme siihen. Se on Skynet. Joko me tuhoamme sen tai se tuhoaa meidät. Missään nimessä kenenkään ei pidä yrittää rakentaa tuollaista tekoälyä.
Toisinsanoen suhtaudut heihin automaattisesti vihollisina (aivan kuten monet suhtautuvat mamuihin). Etkä edes mielenkiinnosta haluaisi kokeilla pääsisitkö heidän kanssaan ymmärrettävissä olevan vuorovaikutukseen. Mistä arvelet pelkosi johtuvan?
Nyt mielestäni sekoitat kaksi eri asiaa. Jos kohtaamme epäorgaanisen älykkään lajin jostain ulkoavaruudesta, toki sen kanssa tulee yrittää päästä ymmärrettävissä olevaan vuorovaikutukseen. Mutta jos kehitämme itse tekoälyn, olemme sen kanssa vuorovaikutuksessa koko sen kehittymisen ajan. Toivon mukaan myös ymmärrettävissä olevassa vuorovaikutuksessa. Tällaista ei mielestäni pidä kehittää ja se pitää tuhota, ennen kuin se muuttuu tietoiseksi. Syy on se, että se olisi täysin ylivoimainen meihin verrattuna eikä mikään estäisi sitä tuhoamasta meitä. Ja sen se tekisi ennemmin tai myöhemmin Jo nyt tietokoneet hallitsevat meitä, vaikka niillä ei tietääkseni ole vielä tietoisuutta tai omaa tahtoa. Joka päivä tulee eteen lukuisia tilanteita, joissa tietokone pakottaa tekemään jotain, jota ei muuten vapaaehtoisesti tekisi. Sellaisten tietokoneiden tietoisuus johtaisi hirvittävimmistä hirvittävimpään dystopiaan.
Asioiden hämmentäminen oli tarkoituksellista. Vastaan tässä samalla myös tähän kommenttiin.
ID10T kirjoitti: 04 Kesä 2025, 08:01 Minun mielestäni riski ei ole vaivan arvoinen. Ja mitä me edes teemme autonomisella tekoälyllä, joka saattaisi hyvinkin - suoranaisen vastarinnan sijaan - alkaa lakkoilemaan? Ja ylivertaisen älynsä avulla se oppisi ennen pitkää vihaamaan typeriä ihmisiä.

Mamut ovat oikeita ihmisiä, heihin pitää suhtautua jollain tapaa, koska he ovat olemassa.
On myös pohdittava, olisiko aidosti ihmismäinen tekoäly välttämättä uhka. Jos se on periaatteessa mahdollista toteuttaa, sen kehittämistä ei voida lopulta estää. Tärkeämpi kysymys on: tapahtuuko se varjoissa vai julkisen kontrollin puitteissa? Jos kehitys etenee ilman valvontaa, voi lopputulos olla arvaamaton. Jos sen sijaan luodaan avoimet eettiset ja teknologiset rajat, voidaan varmistaa, että tekoäly kehittyy yhteiskunnallisesti kestävällä tavalla.
Ihminen voi asettaa eettisiä rajoja vain itselleen, ei luomalleen autonomiselle tekoälylle. Miten niiden rajojen rikkominen edes sanktioitaisiin? Tekoälyä tuskin voi pelotella sakko- tai vankeusrangaistuksella.
Tarkennuksena: puhuin tässä tekoälyn nykykehityksen sääntelystä ja sen merkityksestä. Tällä hetkellä olemme tilanteessa, jossa tekoälyn käyttöä ja sen vaikutuksia yhteiskuntaan voidaan ja pitää säännellä lainsäädännöllä. Onko sinulla mielipide tästä asiasta?

En käsitellyt tulevaisuuden hypoteettiselle autonomiselle tekoälylle asetettavia erityissääntöjä. Jos joskus kehitetään aidosti ihmismäinen, autonominen tekoäly, sen ei tule olla erillisen lainsäädännön alainen. Sen tulee toimia samojen demokraattisesti säädettyjen lakien puitteissa kuin kaikkien muidenkin saman sosiaalisen yhteisön jäsenten. Jos se on tietoinen toimija, sitä ei voida asettaa välineeksi, vaan sen on oltava juridisesti ja eettisesti samalla tasolla kuin ihmisten kanssa toimivat subjektit.

Mitä mieltä olet tästä? Pitäisikö tekoälyä säädellä tiukemmin jo nykyisessä kehityksessä vai pidätkö nykyistä sääntelyä riittävänä?
Tekoälyn sääntely - nykytilanteessa tai tulevaisuudessa - on sikäli ongelmallista, että käyttäjän näkökulmasta tekoäly on "musta laatikko", joka näyttää meille vain parhaimman puolensa, emme siis vältämättä tiedä tulleemme huijatuiksi. Sama varmaan koskee suurinta osaa lainlaatijoista, hekään eivät tunne kaikkia algoritmien saloja. Koodaamisesta vastaavat tahot taas eivät välttämättä kerro meille kaikkea.

Edellä mainituista seikoista huolimatta on tietenkin syytä yrittää varmistaa ajoissa, ettei meitä manipuloida tekoälyn avulla.
Tekoälyn sääntelyssä keskeinen haaste ei ole vain algoritmien ja opetusdatan avoimuus, vaan myös tekoälyn mahdollisuus massiiviseen käyttäjien manipulointiin. EU on pyrkinyt torjumaan tätä riskiä tekoälysäädöksellä (AI Act) ja digipalvelusäädöksellä (Digital Services Act, DSA), mutta kysymys jää: ovatko nämä toimet riittäviä?

Tekoälysäädös kieltää manipuloivan tekoälyn käytön, esimerkiksi algoritmit, jotka voivat vaikuttaa ihmisten käyttäytymiseen heille tiedostamattomilla tavoilla. Sosiaalisen pisteytyksen kaltaiset järjestelmät on kielletty, ja tekoälyn täytyy täyttää avoimuusvaatimukset, jotta käyttäjät tietävät olevansa vuorovaikutuksessa tekoälyn kanssa. Digipalvelusäädös puolestaan edellyttää, että suurten verkkopalveluiden algoritmit ovat läpinäkyviä ja niiden vaikutuksia seurataan.

Silti jää avoimeksi kysymys: miten voidaan tehokkaasti estää tekoälyn käyttö massiiviseen mielipidevaikuttamiseen? Vaikka päätöksentekijät eivät voi olla kaikkien alojen asiantuntijoita, sääntelyn valmistelussa kuullaan tekoälyn, datatieteen ja digitaalisen etiikan asiantuntijoita. Tämä periaate on tärkeä, mutta se ei välttämättä takaa, etteivät kaupalliset tai poliittiset toimijat hyödynnä tekoälyä käyttäjien näkökulmien muokkaamiseen.

Mitä mieltä olet? Riittääkö nykyinen sääntely estämään manipulaation, vai pitäisikö tekoälyn vaikutuksia seurata ja säädellä entistä tiukemmin? Lisäksi, missä määrin pitäisi edellyttää tekoälyn päätöksentekoprosessien ja vaikutusten läpinäkyvyyttä, jotta käyttäjät voivat tunnistaa mahdollisen manipulaation?
Filosofia on vasta esitieteellistä pohdiskelua. Ollakseen hyödyllistä, sen perustana on oltava naturalistinen luonnontiede: jokaisella fyysisellä ja mentaalisella tapatumalla on kausaalisnen-sulkeuma-argumentin mukainen fyysinen syy tai selitys.
Suosittele ketjua Vastaa Viestiin