Tuoreimmat viestit

Sivuja: [1] 2 3 ... 10
1
Yleistä keskustelua / Vs: Mikä on totuus AI:n takana...
« Uusin viesti kirjoittanut qwertyy tänään kello 00:39 »
Edellisessä videossa koko idea oli tekstissä ja sen ääniasussa. Sitä ei jaksanut katsoa, sitä piti kuunnella. Musavideo jatkaa samaa rataa, vaikka esiintyjä onkin elävä. Tekstiä ja ääntä on helpompi käsitellä mekaanisesti kuin kuvaa.
En sanoisi ihan noinkaan. Jos ajatellaan sitä reaaliaikaista kääntämistä, niin kuvan puolesta referenssi on näkyvissä kokoajan ja aiemmin mainittu "framegen" tyyppinen tekniikka pystyisi jo hyvin generoimaan tekstin tilalle hyvin lähelle oikeat pikselit, onhan mm. esim. kanavalogojen sumentaminen ollut juttu vuosikymmeniä kotitietokoneilla ja sehän on  oikeastaan pelkää interpolointia ja silti tulos yllättävän hyvä.

Kaikki tekniikka on jo käytännössä olemassa, kyse on vain prosessointitehosta. Netti suorastaan tulvii monenlaista demoa. Väitän edelleen, että kaukana ei olla siitä, että tämä on mahdollista reaaliajassa ja niin, että prosessointi ei isommin häiritse käyttäjää.

Tässä vaiheessa aloin mielenkiinnosta selaileen aiheesta ja mielenkiinnosta kysyin Geminiltä teoriasta ja sieltä tulikin hyvin odotetun tyyppinen vastaus, että kaikki tekniikat on tosiaan olemassa ja erityisesti OCR ja kontekstin ymmärtävät kielimallit on jo olemassa ja niihin perustuvia kääntäjiä on jo nyt olemassa ja linkkasi RSTGameTranslation projektin
https://thanhkeke97.github.io/RSTGameTranslation/
joka oikeasti näyttää toimivan aika kivasti ainakin heidän YT demossa.
https://www.youtube.com/watch?v=PFrWheMeT5k

Lisäksi ilmeisesti Googlen Veo ja Sora osaa jo kuvasta hahmottaa esim. 3D objektit, eli sekin osalta tuo taustan "ennakointi" on jo täysin mahdollista esim. peleissä. Vain "in-painting" vaatii suorituskykyä niin paljon, että esim. peleissä se ei vielä ole mahdollinen. Vaan tätä en tiennyt, että videon osalta tuo on jo mahdollista, no ei ehkä enää voi sanoa kuluttajaraudalla, mutta silti. Aika mielenkiintoinen projekti, jossa videota muokataan rajusti reaaliajassa uusimmilla Nvidian korteilla  :o
https://www.youtube.com/watch?v=RaNay3x0Fmk

Pyysin arvioimaan, että minkälaista rautaa voisi vaatia videon OCR, käännös ja kohtuullinen in-painting laatu ja arvioi, että RTX 4090 voisi selvitä noin 720p videosta noin 30fps, eli sehän olisi jo ihan ok minusta.

Lisäksi tekoäly pääsi yllättämään kyselyissäni ja huomautti, että tämä varmaankin tulee olemaan tulevaisuutta ja että se ei ole välttämättä kaukana, koska tulossa on paljon NPU tekniikkaa toimiin taustalla ja mm. nvidia ilmeisesti tekee juuri projekteja liittyen tähän "in-painting" tekniikkaan ja huomautti, että tämä voisi olla mielenkiintoinen tekniikka soveltaa kääntää esim. Kanji merkit pystysuunnasta länsimaiseksi reaaliajassa. Pakko myöntää, että tuo tuli täysin puskista ja olisi aika villi jos/kun siinä onnistutaan.

Lisäksi aika realistisesti huomautti, että NPU voisi tulevaisuudessa prosessoida kuvaa tämän tyyppisessä käytössä ja etsiä mm. tekstiä näytöltä, että prosessointitehoa säästyisi mahdollisimman paljon, eikä koko kuva-alaa siis tarvisi prosessoida jatkuvasti, vaan ohjata se vaikka näytönohjaimelle vain jos tekstiä löytyy. CPU voisi periaatteessa ajaa vaikka llmama tai mistral kielimallia, että käännöksen konteksti pysyy järkevänä, juuri kuten oli puhetta aiemmin ja GPU sitten tosiaan hoitaa tuon "in-painting" ja häivyttää alkuperäiset tekstit ja piirtää uuden käännöksen päälle.

Sitten tekoäly vielä antoi kyllä oikein hyvän pointin, että esim. pelien osalta tämä reaaliaikakäännös olisi ihan triviaali jos Ai pääsisi suoraan pelimoottorin muistiin ja/tai DirectX/Vulkan kutsuihin, niin in-paintingiä ei tarvisi tehdä lainkaan ja suorituskyky riittäisi helposti käännöksiin ja kuvanlaatu olisi täysin virheetön, jos teksti siis otetaan pelissä aina omaksi tasoksi, eikä ole kirjoitettu vaikkapa pelimaailman objekteihin, kuten aika monesti on. Ei varmaan olisi lainkaan huono ajatus tehdä jonkinlaista omaa standardia nykyään tätä varten. Eipä ole moinen käynyt mielessä.

Se vain jyrää toi tekniikka niin vauhdilla eteenpäin, että perässä on vaikea pysyä. Varsinkin jos tuo nvidian demo on oikeasti reaaliajassa mahdollinen juttu jo nyt, niin ehkä "universaali käännin" ei olekaan kohta enää niin scifiä.

Kaikkea sitä. Toi OmnimatteZero 🤯
2
Vaihtoehtoiset työpöytäympäristöt / Vs: Vanha acer E-523 -läppäri ja uusimmat ytimet
« Uusin viesti kirjoittanut nm 22.02.26 - klo:21.17 »
Koneessa on nyt Mint 22.2, joka toimii hyvin. Mint oli asennettava, koska Ubuntu 24.04-asennuksessa oli ongelmia. Kun nyt tutkin tilannetta tekoälyn kautta, siellä kirjoitettiin, että " Vanhat prosessorit (yleensä AMD A- tai E-sarja) ja näytönohjaimet (esim. Radeon R3) eivät sovi suoraan Ubuntu 24.04:n uudempaan Linux-ytimeen (6.8+)."

Kuulostaa kielimallin hallusinaatiolta. Ei noissa AMD:n prosessoreissa ole tietääkseni mitään yhteensopivuusongelmia uusimpien kernelin versioiden kanssa.


Tarkoittaako tämä sitä, että on tulossa ongelmia, kun Mint päivittyy. Nyt käytössä on 6.17.0-14-generic.

Milloin asiaan pitäisi alkaa varautua, eli onko olemassa arviota, milloin Mint päivittyy niin uuteen ytimeen.

Nythän sinulla on jo käytössä Ubuntun uusin kerneli, huomattavasti uudempi kuin 24.04:n alkuperäinen 6.8-sarjan kerneli.
3
Yleistä keskustelua / Vs: Mikä on totuus AI:n takana...
« Uusin viesti kirjoittanut AimoE 22.02.26 - klo:20.33 »
Vielä lisätäkseni tähän, niin katsoppas ihan mielenkiinnosta tämä video. Biisin tekijä on sitä mieltä, että tekoälyn versio onkin parempi mitä hänen. Tuli yllätetyksi, koska ajatteli tehdä videon siitä huono tekoäly vielä on.
https://www.youtube.com/watch?v=ZxYAtL0D50A

Edellisessä videossa koko idea oli tekstissä ja sen ääniasussa. Sitä ei jaksanut katsoa, sitä piti kuunnella. Musavideo jatkaa samaa rataa, vaikka esiintyjä onkin elävä. Tekstiä ja ääntä on helpompi käsitellä mekaanisesti kuin kuvaa.

Kuuloaistimukset käsitellään liskoaivoissa, mutta näköaistimukset muokkaavat aivoja niin paljon, että vain pikkuvauva voi oppia näkemään. Kun ihminen sokeutuu myöhemmässä elämässä ja elää täysin sokeana useamman vuoden, mikään leikkaus tms. ei voi enää palauttaa näkökykyä vaikka silmät olisivat terveet. Aivot näkevät vain valoa ja varjoa, mutta eivät pysty tunnistamaan muuta. Sokeiden vuosien aikana aivojen näköalueet muokkautuvat uuteen käyttöön, eikä niitä enää voi muokata näköaistin käyttöön. Vain vastasyntyneen vauvan aivot kykenevät siihen.

[[Neurologi Oliver Sacks kertoi eräässä kirjassaan juuri tästä. Eräs mies oli sokeutunut ja tottunut siihen jo. Sitten auttamishaluiset sukulaiset järjestivät hänet leikkaukseen jossa silmät korjattiin, mutta miehen aivot eivät kyenneet käsittelemään sitä mitä silmät kertoivat. Ennen leikkausta hän koki itsensä terveeksi, leikkauksen jälkeen hän oli yhtäkkiä vammainen. Se oli valtava romahdus itsetunnossa.]]
4
Yleistä keskustelua / Vs: Mikä on totuus AI:n takana...
« Uusin viesti kirjoittanut AimoE 22.02.26 - klo:20.11 »
Onhan tietotekniikassa framegen ollut juttu jo varmaan vuosikymmenen. Siinäkin kehitetään tyhjästä uusia väliruutuja ja vieläpä mediaan, jonka sisältö on dynaaminen, eikä mikään ennalta arvattava video.
https://www.youtube.com/watch?v=aEd9OrNify8&t=2s

Pitäisi tietää millaisilla prompteilla tuo on tehty, eli kuinka paljon kässäri on prompteista peräisin.

Tulee mieleen Speden sketsi, joka ei voisi toimia koneälyversiona. Spede kutsui vieraaksi M.A. Nummisen, jutteli muodon vuoksi hetken, ja ehdotti duettoa. Numminen soitti kitaraa ja kumpikin lauloi, M.A. vingahtelevalla tyylillään ja Spede normaalisti. Kesken laulun he vaihtoivat tyyliä keskenään niin sujuvasti, että monelta se vaihto varmaan jäi huomaamatta. Minua Spede harvemmin viihdytti, mutta tästä tempusta Spede saa aplodit minultakin.
5
Yleistä keskustelua / Vs: Mikä on totuus AI:n takana...
« Uusin viesti kirjoittanut qwertyy 22.02.26 - klo:20.09 »
Kielimallit käsittelevät tekstiä, musiikkimallit musiikkia, jne. Ihminen käsittelee aistimuksia ja niiden aiheuttamia elämyksiä -- joista suurin osa ei edes nouse tietoisuuteen. Kun AI-robotti lukee tätä keskustelua, se lukee tekstiä. Kun ihminen lukee postauksia ja vastaa niihin, hän kokee elämyksiä, jotka täydentävät ja muokkaavat aiempia elämyksiä ja kokemuksia. Tietokoneilla ei ole elämyskokemuksia tai ylipäätään kokemuksia.
Vielä lisätäkseni tähän, niin katsoppas ihan mielenkiinnosta tämä video. Biisin tekijä on sitä mieltä, että tekoälyn versio onkin parempi mitä hänen. Tuli yllätetyksi, koska ajatteli tehdä videon siitä huono tekoäly vielä on.
https://www.youtube.com/watch?v=ZxYAtL0D50A

Lisäksi Spotify on jo pari vuotta sitten kertonut, että Ai on jo ongelma, kun rahan ahneet tunkee Ai kamaa streamauspalveluun.
https://newsroom.spotify.com/2025-09-25/spotify-strengthens-ai-protections/

Tämä on oikeastaan aika mielenkiintoinen ongelma, koska missä vaiheessa päätös keinotekoisesta musiikista tehdään? Lukuisat nykyartistit vetää studiossa AutoTunella lauluäänen, joka poikkeaa oikeasta merkittävästi. Mutta onko tekoälyllä kirjoittamalla tehty lyriikka sitten sen kummempaa? Oikeastaan aika mielenkiintoisia moraalisia ongelmia.
6
Ohjelmointi, palvelimet ja muu edistyneempi käyttö / Hiiri herättää koneen
« Uusin viesti kirjoittanut AimoE 22.02.26 - klo:19.50 »
Alkoi ärsyttää se, että hiiri herättää koneen valmiustilasta. Netistä löytyy paljon ohjeita, joissa herätys estetään tyyliin

Koodia: [Valitse]
echo disable | sudo tee /sys/bus/usb/devices/*/power/wakeup
Yritin noudattaa tätä neuvoa, mutta sain Invalid argument -virheilmoituksia. Päättelin, että kernel varmaankin suojaa sisuksiaan nykyään paremmin. Oli jo aikakin.


Päädyin tähän ratkaisuun:

Koodia: [Valitse]
#!/bin/bash

rules=/etc/udev/rules.d/90-usb-wakeup.rules
format=(
    'ACTION=="add", SUBSYSTEM=="usb", DRIVERS=="usb",'
    'ATTRS{idVendor}=="%s", ATTRS{idProduct}=="%s",'
    'ATTRS{power/wakeup}="disabled"'
)
format=${format[@]}

for file in /sys/bus/usb/devices/*/power/wakeup
do
    [[ $(cat $file) == enabled ]] || continue

    d=${file%/power/wakeup}
    printf "$format\n" $(cat $d/idVendor) $(cat $d/idProduct)

done | sudo tee -a $rules

Aiempaan verrattuna tässä on se hyvä puoli, että estosta jää jälki, jonka avulla eston voi perua; sääntötiedoston voi poistaa helposti. Sekin on hyvä puoli, että näin lyhyt koodinpätkä on helppo lukea.

Mutta tämä komentotiedosto täytyy suorittaa sokkona. Teki mieli kirjoittaa viimeinen rivi muotoon

Koodia: [Valitse]
done # | sudo tee -a $rules # uncomment for immediate effect

Tein siitä sitten interaktiivisemman version:

Koodia: [Valitse]
#!/bin/bash

rules=/etc/udev/rules.d/90-usb-wakeup.rules
format=(
    'ACTION=="add", SUBSYSTEM=="usb", DRIVERS=="usb",'
    'ATTRS{idVendor}=="%s", ATTRS{idProduct}=="%s",'
    'ATTRS{power/wakeup}="disabled"'
)
format=${format[@]}

comment(){
    for f in iManufacturer iProduct manufacturer product
    do
[[ -f $1//$f ]] && printf " $(cat $1/$f)"
    done
}
pick(){
    zenity --list --checklist \
   --title 'Estä herätys valmiustilasta' \
   --text 'Herätys on sallittu näille:' \
   --ok-label 'Jatka' --cancel-label 'Peru' \
   --column '' --column '' --column 'USB-laite' \
   --hide-column 2 --print-column 2 --separator ' ' \
   "$@" || exit # cancel button
}
advice(){
    echo "
Esto tulee voimaan kun USB-laite kytketään uudelleen.

Voit palauttaa herätyksen poistamalla estosäännöt:
    sudo rm $rules
"
}
menu=()
for file in /sys/bus/usb/devices/*/power/wakeup
do
    [[ $(cat $file) == enabled ]] || continue

    d=${file%/power/wakeup}
    menu+=( true $d "$(comment $d)" )
done
for d in $(pick ${menu[@]})
do
    echo "#$(comment $d)"
    printf "$format\n" $(cat $d/idVendor) $(cat $d/idProduct)

done | sudo tee -a $rules && advice

... ja työn touhussa totesin, että ainoa USB-laite, joka herättää koneen, on Logitech Universal Receiver, eikä siihen paritettuja laitteita voi estää yksitellen. Plääh.
7
Yleistä keskustelua / Vs: Mikä on totuus AI:n takana...
« Uusin viesti kirjoittanut qwertyy 22.02.26 - klo:19.49 »
Tietokoneilla ei ole elämyskokemuksia tai ylipäätään kokemuksia.
Mutta aika ironisesti tämä pätee myös ihmisiin. Valtaosalla meistä, ei ole suoraa kokemusta jostain aiheesta X, vaan mielipiteemme se perustuu henkilön ABC kokemuksiin ja kertomuksiin. Lisäksi jos ajatellaan vaikkapa tuota ylläolevaa Kekkos/Irwin parodiaa, niin aika hyvin siellä on intonaatio ja sävy puheessa jo nyt. En minä ainakaan saisi imitoitua kumpaakaan oikein hyvin. Sitten jos ajatellaan kääntäjiä vaikkapa ihan yleisesti, niin kuinka moni heistä on erikoistunut vaikkapa lääketieteeseen, japanilaiseen mytologiaan, tietotekniikkaan, psykologiaan jne. kun tietokoneella voi olla teratavuja jo paikallisesti vertailumateriaalina. Toisin sanottuna, miksi tekoäly ei osaisi tehdä jopa parempia ja soveltuvampia käännöksiä lähes reaaliajassa?

Vielä tärkeämpää on minusta huomioida esim. tuossa linkkaamassani parodiassa, että se on.....Suomeksi! Tuskin kehtaat väittää, että puheesta ei saa mitään selvää? Mille sitä on naureskeltu vuosikymmeniä? Oliko niin, että käytännössä kukaan ei voi noin vain alkaa lausuun suomea tuosta noin vain ja selkeästi?

Minua alkaa ainakin oikeasti hiukan jo huolestuttamaan näiden taso. Vielä kun mennään takaisin tuonne lähdemateriaaleihin ja persoonallisuuteen yms. niin tälläkin hetkellä ihan takuuvarmasti jokin malli louhii läpi jonkinlaista vuodettua materiaalia tyyliin Vastaamo, mistä valtaosa meistä ei moraalisien syiden takia ole edes kiinnostunut etsimään. Eli miksi tekoälystä ei voisi tulla pelottavan vakuuttavaa ja tietoisempaa mitä oikeastaan kukaan meistä on?

Oliko Cameron ysärillä reilusti aikaansa edellä? Boston Dynamicsin Atlaksiin kun saadaan upotettua tekoälyohjaus ja vielä vähän lisää tarkkuutta, niin tuleeko ihmiskunnan tuho? Jenkithän jo puhuu, että pitää saada kunnolliset tekoälyt taistelukenttien ohjaukseen laskemaan potentiaalisia kohteita ja tekemään maksimaalista strategista tuhoa. No onneksi ihminen on sen verran pirullinen olento, että todennäköisyys on vielä aika pieni  :D

Lainaus
Trumpin hallinnossa varmistellaan takapakkia ihan urakalla. Ilmastokatastrofi asettaa kasvulle tiukat rajat -- tai maailmansota jo sitä ennen.
Sielläkin, mutta se on tuo itänaapuri paljon tehokkaampi vielä näissä asioissa.
8
Yleistä keskustelua / Vs: Mikä on totuus AI:n takana...
« Uusin viesti kirjoittanut AimoE 22.02.26 - klo:19.19 »
Mullistavia kehitysharppauksia ei ehkä ole odotettavissa laitteistopuolella ainakaan lähivuosina. Mallien kykyjen kasvu on sen sijaan ollut huimaa etenkin viimeisten 5-10 vuoden aikana, eikä kehitys ole mielestäni vielä hidastunut, vaikka resursseista alkaa olla pulaa. Vielä 5 vuotta sitten olisin kuvitellut tekoälyn nykyisen tason Star Trek -scifiksi, huomattavasti kaukaisempaan tulevaisuuteen.

Trumpin hallinnossa varmistellaan takapakkia ihan urakalla. Ilmastokatastrofi asettaa kasvulle tiukat rajat -- tai maailmansota jo sitä ennen.
9
Vaihtoehtoiset työpöytäympäristöt / Vanha acer E-523 -läppäri ja uusimmat ytimet
« Uusin viesti kirjoittanut teele 22.02.26 - klo:19.19 »
 Koneessa on nyt Mint 22.2, joka toimii hyvin. Mint oli asennettava, koska Ubuntu 24.04-asennuksessa oli ongelmia. Kun nyt tutkin tilannetta tekoälyn kautta, siellä kirjoitettiin, että " Vanhat prosessorit (yleensä AMD A- tai E-sarja) ja näytönohjaimet (esim. Radeon R3) eivät sovi suoraan Ubuntu 24.04:n uudempaan Linux-ytimeen (6.8+)."

Tarkoittaako tämä sitä, että on tulossa ongelmia, kun Mint päivittyy. Nyt käytössä on 6.17.0-14-generic.

Milloin asiaan pitäisi alkaa varautua, eli onko olemassa arviota, milloin Mint päivittyy niin uuteen ytimeen.

10
Yleistä keskustelua / Vs: Mikä on totuus AI:n takana...
« Uusin viesti kirjoittanut nm 22.02.26 - klo:18.49 »
Neurotietokoneet olivat tulevisuuden koneita, joten neuroverkkoja simuloitiin matriiseilla Excel-taulukoissa, 1990-luvun PC:eillä, joissa ei ollut GPT grafikkaprosessoreita

Mallit jota sai kohtuulisessa ajassa viikoissa, parissa ajettua olivat "aika yksinkertaisia", mutta neuroverkkoja kuitenkin niin kuin nykyinen AI.

2026 näitä samoja ja ehkä asteen monimutkaisempia malleja simuloidaan nopeammilla useita GPT:tä sisältävälillä koneilla "aika paljon" nopeammin

Ovatko nämä GPT:t neurotietoneita vai nopeampia simulaattoreita en osaa sanoa ja väliäkö sillä enää eläkeläisäijälle on?

Tarkoitat GPT:llä todennäköisesti GPU:ta (Graphics Processing Unit), joka on alun perin näytönohjaimiin kehitetty mikroprosessorityyppi. GPT (Generative Pre-trained Transformer) on OpenAI:n kehittämä LLM-tyyppinen kielimalli, joka perustuu transformer-arkkitehtuuriin. GPT-mallit, samoin kuin muut LLM:t on opetettu ja niitä ajetaan suurissa datakeskuksissa GPU-suorittimilla.

Tässä hieman juttua menneiden vuosikymmenien "neurotietokoneista": https://www.sigarch.org/neurochips-from-the-90s/
Nettihaun perusteella myös japanilaiset tutkijat ja teknologiafirmat ovat olleet kiinnostuneita aihepiirista 90-luvulla. Näitä voisi pitää hitaina ja pieninä, rajatun sovelluskohteen versioina GPU-suorittimista.

Nykyisin neuroverkkoja opetetaan lähes yksinomaan näytönohjainten arkkitehtuuriin perustuvilla piireillä (GPU = Graphics Processing Unit). Ne ovat helposti ohjelmoitavissa erilaisiin tehtäviin ja tarjoavat leveän muistiväylän, joka mahdollistaa massiivisen rinnakkaislaskennan suurilla datamäärillä. Äärimmilleen viety esimerkki tällaisesta piiristä on Cerebrasin piikiekon kokoinen siru. Nvidia on kuitenkin toistaiseksi säilyttänyt johtavan asemansa, eikä vakavasti otettavia haastajia oikein ole näköpiirissä ehkä AMD:tä lukuun ottamatta. Nvidian markkinaosuus datakeskusten laskentapiireistä lienee 90 %:n luokkaa ja AMD:n osuus jää alle 10 %:n.

Viimeisimpänä kehitysaskeleena Nvidian laskentapiireissä on säädetty lähinnä sitä, kuinka iso osa piiristä erikoistuu pienen tarkkuuden liukulukujen FP8 ja FP4 laskentaan. Perinteisesti suurin osa piirin laskentayksiköistä on erikoistunut korkeamman tarkkuuden 32- tai 64-bittisiin liukulukuihin, joita on tarvittu grafiikassa, mallinnuksessa ja simulaatioissa. Neuroverkkolaskennassa ja muissa koneoppimistehtävissä riittää usein 8-bittiset tai jopa 4-bittiset liukuluvut, jolloin laskentayksiköiden lukumäärää voidaan kasvattaa huomattavasti.

Kyselyjen tai tehtävien suorittaminen aiemmin opetetulla mallilla (ns. päättely, englanniksi inference) onnistuu joissain tapauksissa kohtuullisen nopeasti myös perinteisillä prosessoreilla (CPU), joskin silloinkin hyödynnetään yleensä SIMD-tyyppistä rinnakkaislaskentaa ja useita ytimiä. Päättelyyn on kehitetty myös erikoissiruja, kuten Googlen TPU, prosessoreihin integroidut NPU:t tai viimeisimpänä pari päivää sitten julkaistu Taalas, jossa opetettu malli itsessään rakennetaan fyysisesti sirulle. Tällainen arkkitehtuuri mahdollistaa erittäin tehokkaan suorituksen ja minimaalisen viiveen, mutta sirua ei voi uudelleenohjelmoida, eikä mallia voi päivittää

Mullistavia kehitysharppauksia ei ehkä ole odotettavissa laitteistopuolella ainakaan lähivuosina. Mallien kykyjen kasvu on sen sijaan ollut huimaa etenkin viimeisten 5-10 vuoden aikana, eikä kehitys ole mielestäni vielä hidastunut, vaikka resursseista alkaa olla pulaa. Vielä 5 vuotta sitten olisin kuvitellut tekoälyn nykyisen tason Star Trek -scifiksi, huomattavasti kaukaisempaan tulevaisuuteen.
Sivuja: [1] 2 3 ... 10