Näytä kirjoitukset

Tässä osiossa voit tarkastella kaikkia tämän jäsenen viestejä. Huomaa, että näet viestit vain niiltä alueilta, joihin sinulla on pääsy.


Viestit - Ux64

Sivuja: 1 ... 26 27 [28] 29 30
541
Pelit / Linux - Unreal Tournament 3 (UT3)
« : 25.11.07 - klo:19.18 »
Eipä ole vielä Linux demoa julkaistu, mutta kun julkaistaan. Sitä on ihan pakko kokeilla.

Asiallisia nuo pelientekijät jotka huolehtii myös siitä että pelistä syntyy optimoidut linux porttaukset.

Windows Beta on nyt ladattavissa ja testattavissa:
http://www.unrealtournament3.com/

Pitää pitää perinnettä yllä. Olen aina testannut jotain messevää FPS peliä kun olen ostanut uuden koneen.

Tuo voisi olla juuri sellainen sopiva peli. Kun ei tullut mitään muuta testattua, tässä koneessa kun ei ole muita käyttiksiä Ubuntun lisäksi.

Odotetaan demoa / betaa linuxille ja sitten fragataan!

Julkaisu menee todennäköisesti valitettavasti ensivuoteen. PS3 ja PC versioilla lienee iso painoarvo.

http://fi.wikipedia.org/wiki/Unreal_Tournament_3

http://www.unreal.fi/

542
Tämä on vastaava klassikko kuin se että Linuxissa on harovin vapaata muistia... ;) Mutta ihan yleismaailmallinen näkemys kuitenkin.

Vielä näkemys siihen kun jotkut sanoo että swappaa. Swappaamisessa ei ole mitään vikaa. Oletetaan että varaan sovelluksella muistia esimerkiksi 100 megaa, jota en käytä lainkaan tuon varaamisen jälkeen. Silloin on täysin luonnollista että käyttöjärjestelmä siirtää tuon muistin swappiin ja käyttää koneen keskusmuistin johonkin hyödyllisempään. Hyödyllisemmäksi käytöksi voidaan laskea myös levyvälimuisti.

Windowssilla ja Linuxilla en ole tuohon kovin selkeästi törmännyt. Mutta OS/2 koneella oli ihan selvää, että jos esim GUI käyttöliittymää ei käyttänyt serverissä pariin päivään. Niin kun koneelle tuli saattoi käyttöliittymän kaivelu swapista kestää minuutinkin. Joku kysyy että miksi se on siellä swapissa? No juuri siksi, kun sitä ei ole moneen päivään tarvittu, joten sitä on aivan turha pitää tuhlaamassa koneen muistia.

Tästä voidaan päätellä ettei swappaaminen ole paha asia. Ongelma onkin swap threshing, joka johtuu siitä että joudutaan swappaamaan aivan jatkuvasit ulos ja sisään tavaraa kun muistiin ei mahdu edes kaikki tarpeellinen jatkuvasti. Tuo on tuttu efekti todellisella mopokoneella ajelijalle. Mitään ei tapahdu pariin minuuttiin ja kiintolevyn valo palaa vain jatkuvasti.

Riippuen koneen käytöstä ja levy cachen tehokkuudesta, ylimääräisellä muistilla jota sovellukset eivät tarvitse voi olla vielä aivan järkyttävä nopeuttava vaikutus. HyperDisk levy cachen kanssa esimerkiksi 100000 source code tiedoston kopionti kesti noin 2 sekuntia normaalin usean minuutin sijaan. Ensinnäkin, kaikki tiedostot olivat muistissa ja ne kirjoitettiin muistiin, kirjoitettavaksi myöhemmin levylle kun io:ta on käyttämättä.

Myös tietokanta käytössä "tarpeeton" muisti voi olla hyvinkin tarpeellista. MySQL:ssa voi kokeilla poistaa kaikki turhat cachet ja bufferit ja katsoa mikä sen jälkeen on suorituskyky.

Linuxin disk cache ei ilmeisesti ainakaan oletusarvoilla tarjoa minkäänlaista viivästettyä kirjoitusta? Tarjoaako se edes sitä tiedostotasolla kuten Windows / smartdrv tekee?

543
Asentaminen ja käyttöönotto / Vs: aMule ei yhdistä
« : 23.11.07 - klo:06.37 »
Koko serveri järjestelmä on "rikki", sen toiminta malli on täysin tehoton verkon koon kasvaessa. Kirjoitin kohdat auki edelliseen viestiin. Tämä on juuri se syy miksi Kadia ruvettiin tekemään aikanaan ja silloinkin sitä mielestäni ruvettiin tekemään liian myöhään. Overnet esimerkiksi missasi tilanteen juuri tämän vuoksi kokonaan.

Historiaan ja tekniikkaan pitää joskus syventyä, että tietää mistä on kyse.

Tässähän tulee melkein ikävä flood castiin perustuvaa alkuperäistä Gnutella (aka G1 by ShareAza)  verkkoa. ;) 95% liikenteestä oli koordinaatio liikennettä verkon koon kasvamisen vuoksi. Sekä oli ihan sattumanvaraista löytyikö joku source vaikka se onkin samassa verkossa kanssasi. Ongelma muodostui siitä jos se oli oman modesi ttl:n ulottomissa meshissä. Waste käyttää nykyjään samaa tekniikkaa ja sen vuoksi sitä suositellaan enintään 50 käyttäjän verkoille. Huom, siis 50 käyttäjän, ei esimerkiksi 50 tuhannen käyttäjän.

Lopuksi vaikka koko serveripuoli onkin turha: Jos Kad olisi kunnossa ja client 2 client server exchange on päällä. Löytyisi toimivat serverit Kadin paikantamien clienttien kautta. Silloin serverilistalle päivittyisi automaattisesti uudet serverit, eikä sen kanssa tarvitsisi säätää. Taitaa olla vähintään 5 vuotta siitä aikaa kun serverilistan kanssa on tarvinnut säätää, eMulen puolella.

Toisaalta ed2k serverit lienevät nykyjään aika vakaalla pohjalla, mitä niitä on. Juuri tuon typerän protokollan takia niitä ei voi oikein ajaa edes pienemmillä resursseilla. Sisään vyöryvät pyynnöt aiheuttaa nopeasti DDoS tilanteen jos ei ole kunnollisia resursseja.

Kiva muuten nähdä mihin tuo piratebayn p2p projekti etenee.

http://securep2p.com/index.php?title=Main_Page

Sekä sen protokollatason aatteita:
http://securep2p.com/index.php?title=ProtocolDesgin

544
Ihan mielenkiinnosta, kerroppa ensimmäiseksi mitä koneen bios sanoo bootatessa. Siitä lähtisin liikenteeseen, enkä käyttöjärjestelmän muistijutuista joihin vaikuttaa kovin moni asia.

545
Evolutionin kontakti ominaisuudesta. Törmäsin samaan ongelmaan kuin Delugen yhden ominaisuuden kanssa. Sovelluksen oma Preferenses osio on ristiriidassa oletuksena päällä olevien pluginien kanssa.

Tuon kontakti "bugin" sai siis korjattua säätämällä pluginit kuntoon. Eipä kukaan keksinyt sitä mainita, mutta kun huolellisesti käy kaikki vaihtoehdot ja asetukset läpi huomasi että jotain ristiriitaa tässä nyt on.

Parissa sovelluksessa jo mennyt samaan ansaan. Tosin Delugessa on tehty niin, että sovelluksen oma optio on poistettu, kun on tullut plugin jonka tehtävänä on hoitaa sama asia. Silloin löytäminen voi olla vaikeaa mutta ei sentään ilmene bugilta näyttävää "virheellistä" toimintaa ristiriidasta johtuen.

Taas yksi ongelma vähemmän.

Huolella kun tota Evolutionia on räplännyt, niin mä voisin jopa sanoa pitäväni siitä paljon. Hyvät kalenteri, taski jne toiminnot. Korjaa monta kauheaa paperiviritystä kätevästi myös kotikäytössä.

546
Asentaminen ja käyttöönotto / Vs: aMule ei yhdistä
« : 22.11.07 - klo:18.43 »
Näin suoraan sanottuna:

Missasit pointin. En ole käyttänyt varmaan viimeiseen neljään vuoteen servereitä. Vaan pelkkää Kadia.

Laita pelkkä Kad päälle ja katso miten toimii.

Serverit on ihan liian epäluotettavia nykyjään ja serverilistan kanssa pelaaminen tuntuu pöljältä. Eikä serverit toimi mitenkään järkevästi nykyisillä käyttäjämäärillä. Lisäksi koko ns serveri protokolla on rikki nykyisiä käyttäjämääriä ajatellen, koska suunniteltiin silloin kun käyttäjiä oli enintään muutamia kymmeniätuhansia koko edonkey2000 verkossa. Näin ollen serveri tekniikka on auttamattomasti vanhentunutta ja tehotonta. Jos et usko, lue speksit. Tiedätkö edes miten tuo serveri puoli toimii.

aMulen Kad on valitettavasti rikki. Vai saitko sen toimimaan? Kukaan muu ei ole saanut. Vaikka se toimiikin hetken, se hajoaa itsestään kohta. Se kyllä näyttää toimivan ed2k:n kanssa parina, jos jostain löytää toimivan ed2k serverin. Mutta niin kuin edelisessä kappaleessa on sanottu...

Kerro ihmeessä jos olen väärässä.

Edit: Aukikirjoitettu muutama kohta, kun ihmisillä ei näytä olevan syvällisempää tietoa.

547
Pakko vielä lisätä että nyt kun kävin compizin asetukset läpi ja säädin kaiken mieleiseksi... Alkaa Windows Vistan desktop ja Aero tuntua muuten todella antiikkiselta ja jälkeenjääneeltä. Ja tämä ei ole mitään ubuntu "uskovaisen" horinaa, vaan pitkän linjan nörtin tuumimisia.

Mutta näinhän se on, jos ei tiedä mistä jää paitsi ei sitä osaa kaivata.

Erityisesti asiakaskeikoilla on usein ottanut päähän työskennellä jonkun työasemalla jolla on valmiiksi 40 sovellusta auki. Kaikki resurssienhallinnat, wordit jne on grouppeina joissa on auki luottamuksellista dataa. Millään ei viitsisi jonkun dokumentteja penkoa. Helpointa olisi avata oma viewport (workspace) mutta kun ei oo, niin ei oo...

Kokeilin yhtä multidesktop viritystä Vistalle ja se oli kyllä purkkaliimaa pahimmasta päästä. Jos niitä bugeja on jossain, niin tossa oli. Koko systeemi oli hetkessä ihan sekaisin. Onneksi uninstall sentään toimi siististi.

548
Ubuntu tietokoneissa / Vs: Intel Q6600 64 bittinen Ubuntu
« : 20.11.07 - klo:17.07 »
Varmistin vielä VLC foorumeissa, että tuo on faktaa. Videon purussa tuetaan vain yhtä threadia ja jos yhden coren teho loppuu alkaa video leviämään käsiin ja korruptoitumaan. Edes late frame skip ei toimi oikein.
Eeei kai tässä joudu 64:sta WinVistaa laittaan/ostaan >:(

Ei, koska se toimii Vistalla ihan yhtä huonosti. Testasin tänään päivällä. Kyse kun on FFMPEGin "ominaisuudesta" tai siis lähinnä ominaisuuksien puutteesta.

Mitä muuten tulee ehdottomiin Ubuntun meriitteihin. Desktop on vaan järjettömästi parempi kuin Windows Vistassa. Compizin ominaisuuksien ansiosta.

549
Bugi on siis tämä: https://bugs.launchpad.net/ubuntu/+source/gnome-session/+bug/123078/

Gnome power managerin poistaminen käytöstä aiheuttaa tuon ongelman.

Kiitos, ongelma ratkaistu. Näin jälkeenpäin tuntuukin ihan järkevältä. Tuon olisi voinut tavallaan päätellä. Ihmettelinkin että Quit menu on eri näköinen kuin aikaisemmin. Mutta en osannut yhdistää sitä heti mihinkään. Mutta tarkemmin katsottuna tuosta Quit menusta puuttuu sen pitkän odotuksen jälkeen Suspend ja Hibernate vaihtoehdot. Mutta sitten kun gnome-power-manager toimii niin ne on taas siinä.

550
Rinnakkaistamisen sijasta on vielä yksi optio, eli pipelining. Jossa tehtävät pilkotaan liukuhihnalle. Joissain ratkaisuissa tämä toimii varsin mainiosti. Kuten esimerkiksi datan pakaamisessa joka on monivaiheinen prosessi. Kokonaissuorituskyky kasvaa vaikka rinnakkaistamista ei ole toteutettu lainkaan. Tätä lähestymistä olen käyttänyt tekemissäni softissa aika usein. Tietysti ongelmana on se, että täyttä käyttöastetta tällä ei välttämättä saavuteta. Mutta moni prosessi tehostuu silti olennaisesti, varsinkin neliytimisellä koneella. Datan sisäänlukeminen, esikäsittely, prosessointi, jälkiprosessointi ja tallentaminen kaikki omissa threadeissan. Valmiit objektit sitten kopitetaan threadista toiseen. Näin myös datan "jatkuva" jakaminen prosessoriytimien kesken jää vähäiseksi. Joka voi olla ongelma ns. täydellistä rinnakkaistamista hakiessa. Pitkiä synkronointeja tulee tolkuttomasti kun veivataan jatkuvasti jaettuja suuria datamassoja.

Kokemusta esim. valtavien XML aineistojen konvertonnissa tietorakenteesta toiseen, homma pelaa hienosti. Jos tehtävän prosessointi vaihe on riittävän raskas ja mielekkäästi rinnastettavissa, sen voi vielä rinnastaa N threadiin. Mutta aina ei olla niin onnekkaita.

Tuo pipelining oli yllättävän helppo toteuttaa. Konvertointi sovellus oli alunperin kirjoitettu javalla ja toimi jo valmiiksi järkevissä askeleissa vaikkakin suoritettiin yhtenä threadina. Askeleiden eriyttäminen omiksi säikeikseen ei tuottanut sen suurempia tuskia. Ongelmia alkoi muodostua kun aineiston käsittelyyn alkoi yöajossa menemään yli kuusi tuntia. Nyt aika on alle puolittunut neliprosessorisessa koneessa. Ainakin omasta mielestäni pidän tuota säätämisprojektia onnistuneena.

Mitä tulee tavallisiin työpöytäsovelluksiin. Olen aika pitkällä sillä linjalla, että kunhan se TOIMII niin kaikki on hyvin. Mielettömään optimointiin ja tuunaukseen ei kannata käyttää resurseja nykyjään. Kehitystyö on se kallein resurssi, rautaa saa aina halvemmalla lisää. Sama pätee myös siihen miksi käytetään aina vain korkeamman tason ohjelmointikieliä. Äärimmäisyyksiin vietynä: Jos tekisi kaikki softat assemblerilla, jokaiselle prosessorille tehtäisiin oma optimoitu versio ja toteutettaisiin vain välttämättömät funktiot saataisiin lisää vauhtia sovelluksiin käsittämättömän paljon. Kaunis visio, mutta aika kaukana todellisuudesta.

Pythonia olen tässä viimeaikoina katsellut, lienee ilmeisen suosittu *nix puolella. Ruby olisi kuulemma vielä parempi, mutta sen kehitys on ilmeisesti hieman vaiheessa, kääntäjän ilmoitukset todella hämäriä jne. No eipä nuo Javankaan virheilmoitukset järkyttävän selkeitä ollut ennen kuin niihin oikein perehtyi.

Sitten käytännön ongelmiin. Esim uusissa prosessoreissa hehkutettiin uusia multimedia toimintoja? Mitä sitten? Kun softat ei edes tue vielä moniytimisyyttä. Arvatkaa vaan kummalla olisi suurempi tehtostava vaikutus sovellusten toimintaan.

FFMPEG ei tue h.264 videon purkamista monisäikeisenä. Näin ollen Q6600 @ 2.4 GHz prosessorin tehot loppuu yhden coren osalta videon toistossa. Pitäisi varmaan hommata tehokkaampi prosessori (huom, ei prosessorit).


551
Kad ei tunnu valitettavasti toimivan vaikka palomuuri olisi reilassa. Tuossa lyhyt yhteenveto:
http://forum.ubuntu-fi.org/index.php?topic=8811.msg102422#msg102422

552
Jes, saman ongelman kansas täällä taisteltu. Asiasta on käyty keskustelua myös aMulen foorumeissa ja ubuntuforumssissa. Ongelma on ja pysyy. Eikä porttien availu vaikuta ongelman olemassa oloon.

Tein hieman tutkimusta ja näyttää siltä että se on valitettavasti ihan oikeasti rikki. Sen Kad puoli ei toimi kuten pitää. Kontaktit hukkuu ajan myötä ja bootstrapissa on ongelmia. Uusia versioita ei ole kuitenkaan tullut suhteellisen pitkään aikaan.

Ongelma näyttäisi olevan siinä että nodes.dat ei säily kunnossa sovelluksen sulkemisen ja käynnistämisen jälkeen. Vaan ensin pitää kytkeytyä ed2k verkkoon, josta löytyy clienttejä jotka on myös kad verkossa ja sitten voi bootstrapata niistä. eMulen kanssa tämä ei ole ollut tarpeen koskaan. Kun Kad sitten lähtee toimimaan se toimii välttävästi. Jos katkaisen yhteyden ed2k verkkoon, noin vuorokauden kuluessa kad kuolee pois.

Lopputulos, käytän Delugea aina kun mahdollista ja kun ei ole mahdollista ajan eMulea Winellä.

Kun lisäkysymyksiä / vastaväitteitä tulee varmaankin, lisättäköön jo tässä vaiheessa että Kad portti on auki ja toimii UDP:llä. Tarkistettu ja näkyy myös aMulen statuksessa oikein. Sekä luonnollisesti vastaavia portteja käyttäen eMulessa Winen avulla homma toimii täysin moitteitta.

553
Nyt boottaa suhteellisen rivakasti verrattuna normaaliin viritykseen.

16 sekuntia. Lähti vielä käyntiinkin kaiken säätämisen jälkeen. ;)

Samalla tuli outo ongelma josta lisätietoa täällä:
http://forum.ubuntu-fi.org/index.php?topic=4951.msg102420#msg102420

Outo ongelma on myös ratkaistu tuolla. - Kiitos

[ylläpito on poistanut liitteen]

554
Palveluiden säätämisen jälkeen ilmeni outo ongelma, joka johtunee todennäköisesti jonkun palvelun puuttumisesta. - Minkä?

Quit menun tuleminen esiin kestää noin minuutin. Mutta vain ensimmäisen kerran. Sama tilanne jos painan alt+ctrl+del menee minuutti ja valikko tulee näkyviin. Todennäköisesti siis jotain kaivataan, mutta mitä? Katsoin tuolta ubuntuforumssista asiaa enkä löytänyt vastausta. Tarkistin myös että siellä olevassa pitkässä tuunausketjussa ne palvelut jotka pitää olla käynnissä, on myös käynnissä.

No, mä vähän osasin kyllä ounastella tällaista. Aina kun säätää, niin tapahtuu jotain jännää. Mutta siinähän sitä jälkiäkorjatessa oppii... ;)

555
Ubuntu tietokoneissa / Vs: Intel Q6600 64 bittinen Ubuntu
« : 19.11.07 - klo:17.44 »
Viis uusien komentojen tuesta. Mäkin näin ton artikkelin slashdotissa. Mutta kun FFMPEG ei tue edes multithreadingia esim h264 purulle.

Q6600 kämä prosessorista loppuu tehot kesken ihan tavallista video purkaessa. Kaikki kuorma menee yhdelle corelle, sitten teho loppuu ja se on siinä se.

Mulla ei ole mikään hajonnut ja on toiminut kaikki onneksi kohtuu hyvin. Olin varautunut siihen että jos tulee ongelmia, niin pistän Vistan ja sillä selvä. Onneksi ei ole tullut mitään vakavampaa kuin tuo outo SATA errori. Lankkuna P5-E Abitin P35 pohjanen lankku. Prossuna Q6600 ja näytönohjaimena 7600GT.

Varmistin vielä VLC foorumeissa, että tuo on faktaa. Videon purussa tuetaan vain yhtä threadia ja jos yhden coren teho loppuu alkaa video leviämään käsiin ja korruptoitumaan. Edes late frame skip ei toimi oikein.


556
Pistin tonne launchpadiin kommenttia.

Näyttää ihan selvältä toi tilanne. Joku reikä tuossa on.

Toivotaan että tulee kuntoon jossain vaiheessa, priority oli medium.

Bootti päivässä pitää lääkärin loitolla...

557
niin siis perinteisestihän UNIX™-maailmassa ideana on ollut tehdä työkaluja jotka hoitavat vain yhden homman, mutta tekevät sen hyvin. tämä mm. siksi, että pienissä ohjelmissa on vähemmän monimutkaisuutta ja bugeja on helpompi vältellä. myös ylläpito helpottuu, kun koodia ei ole järkyttäviä määriä hallittavana. pieniä työkaluja yhdistellen monimutkaistenkin tehtävien suorittaminen on kuitenkin mahdollista.

Tämä on mielestäni hyvä suunta, koska vihaan myös bloatwarea. ;) Paras esimerkki joka tulee nopeasti mieleen oli HP:n digikamera, joka asensi 1.2 gigaa turhaa roskaa koneelle.

Lainaus
Tietty jos on ihan aloittelija, niin softan paljous voi hieman ahdistaa, varsinkin kun mikään softista ei ole ennestään tuttu.

Juuri siitä tämä ahdistus tulee. ;) Yleistä tietotekniikka ja softakehitys kokemusta on kyllä omalta osalta kertynyt todella paljon tai suomeksi sanottuna jopa liikaa. Se verottaa muita elämän osa-alueita todella raskaasti. Kun on tottunut siihen että osaa jonkun systeemin viimeistä detailia myöten, alkaa helposti ahdistamaan kun on uusi systeemi jossa on hirveästi nippeleitä, säätöjä jne joista osa pitää oikeasti tehdä. Yleiskuvan hahmottaminen on ajoittain vähän vaikeaa.

Muutama säätö jotka oli oikeasti pakko tehdä, fstabin mountit, nvidia:n vblank käyttöön, dpms näytönsäästö, grubin muokkaaminen mukavaksi multibootilla. Hiiren sivunapit toimimaa. Jne.

Aloittelijana toisaalta toivoo, että kaikki nuo asiat sujuisivat mahdollisimman helposti. Eikä tarvitsisi lähteä muokkaamaan esim Xorg.confia. Onneksi tietoa on ollut aika hyvin saatavilla forumeista ja googlella. Eikä configuraatio tiedostot pelota, kun koneiden kanssa on räplätty vähintään 4 tuntia päivässä vuodesta 1986 alkaen. ;)

Tässä siis yksi vinkki joka olisi aloittelijoille vielä tärkeä.
Nvidian uusilla korteilla video toisto menee Xvideolla pois synkistä jos ei suorita komentoa 'nvidia-settings --load-config-only'

Tuollaisten asioiden toivoisi olevan kunnossa, ilman että tarvitsee säätää. Tietysti kun nämä perusjutut oppii muutaman asennuksen jälkeen, niin sitten ne käy hujauksessa. Muistaa ulkoa miten ne 20 pikku säätöä pitää tehdä mitkä tarvitsee tehdä että systeemi on oikeasti käyttökunnossa.

Windowssille on ihan vastaava lista. Esimerkiksi, kuuluisa IE6:n cache oli mahtava isommilla levyillä kun browserin välimuistiksi oli varattu esim 25 gigatavua tilaa. ;) Sekä kasa säätöjä regeditillä ja tweakui:lla, turhat softat pois startupista tms.

Vielä jatketaan tuosta säätämisestä. En sanoisi että se on lainkaan turhaa. Edellisen koneen suorituskyky kasvoi Windowssin kanssa oikeasti testien mukaan 30% kun säädin siinä kaiken kuntoon. Ensin biossista kaikki kuntoon, ajurit kuntoon, ajureiden asetukset kuntoon jne.  Herää kysymys, että miksi maksaa koneesta jos sen suorituskyvystä jää käyttämättä kolmannes? Tuossa vaiheessa olin oikeasti hämmästynyt ja myös närkästynyt. Miksi koneet myydään todella huonossa iskussa ihmisille? Uudelleen asentaessani XP:n huomasin, että näytönohjaimen ja varsinkin SCSI ohjaimen ja emon ajureiden kanssa piti olla tarkkana. Jos oli hiemankin pielessä asetukset, suorituskyky oli suomeksi sanottuna surkea.

Tosin uuden koneen ja Linuxin myötä lähdinkin siitä liikenteeseen, että en olettanut kaiken olevan kunnossa alle kahden kuukauden säätämisellä. Nyt on kuukausi mennyt. Varasin siis jo lähtökohdissa noin 200 tuntia uuden koneen säätämiseen ja käyttiksen opiskeluun. Kunhan kaikki säätäminen on tehty, niin siirryn taas muutamaksi vuodeksi käyttäjäksi joka ei (toivottavasti) joudu säätämään ihan hirveästi. Harrastus ja duuni kun on samat, niin alkaa tulemaan välillä korvista.

Lisätään vielä että tuo 30% ei tullut siis ylikellottamalla, vaan kaikkia ohjearvoja noudatettiin edelleen.

P.S. Olihan tuolla bootchart ketjussa maininta: "mm. tästä syystä tämä ketju on ohjelmointialueella 'edistyneeseen käyttöön'  ...", koska vinkeillä voi oikeasti sotkea systeemin kun kokeilee kaikkea.

558
Ubuntu tietokoneissa / Vs: Intel Q6600 64 bittinen Ubuntu
« : 18.11.07 - klo:21.18 »
Mulla toimii 64 bit ihan hyvin melkein vastavassa kokoonpanossa koneessa. Tosin asennuksessa oli noita vaiheita jolloin ruutu oli niin pitkään pimeänä että epäilin homman kaatuneen. Taisi itse asiassa käydä niin että asennuksen jälkeinen bootti jäi jumiin, odottelin pitkään ja boottasin koneen ja sitten lähti käyntiin.

Suurin ongelma on oudot SATA errorit. xfermode 0x0040, pelkäsin että voisivat johtaa datan korruptoitumiseen, mutta eivät ole johtaneet.

Pienen yleissäätämisen jälkeen kaikki alkaa toimimaan suhteelisen hyvin.

559
Ubuntu tietokoneissa / Nautilus imee muistia kuin sieni
« : 18.11.07 - klo:21.13 »
Jotkut sanoi että Nautilus tahmaa. Se tuntuu ajoittain tahmealta. Mutta pahempi vaikutus on mielestäni muistin kulutuksella.



Kuvassa Nautilus kuluttaa 758 megatavua. Olen huomannut että Nautilus vie usein melkein gigan muistia. ~500 megaa näyttää ihan normaalilta.

Onko tämä siis ihan normaalia?

Kaiken muun tweakkaamisen, tehostamisen, säätämisen ja säästämisen yhteydessä tämä tuntuu täysin järjettömältä.

KW: Nautilus, muistia, muisti, kuluttaa, varaa, käyttää, paljon, älyttömästi, satoja megatavuja, megaa

560
Kun tässä nyt on jo ajauduttu aiheesta, niin kysytään samaan syssyyn.

Miksi ihmeessä noita ajastus palveluita on kolme kappaletta, luulisi että yksi riittäisi.

Tämä mielestäni kuvastaa parhaiten Linux "sillisalaattia". Joka on kyllä havaittavissa monella muullakin osa alueella. On esimerkiksi 10 välttävää sovellusta, joista yksi tai kaksi on kelvollisia. Mutta ei ole yhtään hyvää. Jos resurssit olisi yhdistetty ei tätä ongelmaa olisi.

Tiedän tiedän, filosofinen kysymys ja johtaa helposti hirveään soppaan ja kinasteluun. Mutta joku joka on pidepään puuhastellut tällä sektorilla voisi antaa yhden kompaktin kommentin asiaan.

Hmm, tämähän alkaa kuulostamaan ihan demokratialta. ;)

Sivuja: 1 ... 26 27 [28] 29 30