Muropaketti.com

WLAN

22.7.2003

Alkusanat

Muropaketissa ei ole aikaisemmin julkaistu artikkelia koskien verkkotuotteita, joten päätimme tehdä katsauksen WLAN-tekniikkaan sekä -tuotteisiin. 802.11b-standardin mukaiset tuotteet ovat lyöneet itsensä vahvasti läpi, vaikka teoreettiseksi maksimisiirtonopeudeksi ei luvatakaan kuin 11 megabittiä sekunnissa. 802.11g-standardin mukaisia 54 Mbps -tuotteita on jo nähty jonkin aikaa markkinoilla, vaikka virallista standardia näille ei oltukaan julkaistu.

802.11g-standardi julkaistiin vihdoin ja viimein kesäkuun puolivälissä, joten Muropaketin toimitus luonnollisesti päätti ottaa tutkivan silmän alle kyseiseen standardiin pohjautuvia laitteita. Testiin saatiin haalittua Belkinin valmistama tukiasema ja PCI-väyläinen kortti sekä Buffalon PCMCIA-kortti kannettavaan tietokoneeseen.

WLAN - Johdanto

WLAN-tekniikan (Wireless LAN) ideana on tarjota verkko langattomasti, jolloin tiedonsiirto tapahtuu normaalin kaapelin sijaan ilmassa. WLAN-verkkoon voidaan joutua turvautumaan, jos kaapelointi on joko erittäin hankalaa tai jopa mahdotonta. Esimerkkinä mainittakoon yhteys kahden talon välille tai toimistoihin, joissa on käytössä runsaasti kannettavia tietokoneita.

Toistaiseksi WLAN-verkkojen leviämistä ovat varmasti estäneet nopeus, laitteiden hinta sekä toimivuus. Kotioloihin kaapeleiden kautta toimivan 100 Mbps -verkon saa rakennettua hyvällä tuurilla kolmelle koneelle kytkimen kanssa noin 70 eurolla. Jos halutaan käyttöön 54 Mbps WLAN -verkko, voi helposti joutua varautumaan jopa 400 euroa, jos samalla halutaan hankkia tukiasema. Ilman tukiasemaa hinta saadaan hivutettua noin 200 euron tuntumaan, mutta tällöin vastaan tulee omat ongelmansa, kuten tulemme hieman myöhemmin tässä artikkelissa toteamaan. Vertailuksi mainittakoon, että testeissä käyttämämme osat kustantavat kaupasta ostettuna noin 350 euroa, eikä näillä osilla saada liitettyä verkkoon vasta kuin kaksi tietokonetta.

WLAN - Standardit

802.11-standardin historia alkaa vuodesta 1990, jolloin IEEE (Institute of Electronic and Electrical Engineers) alkoi kehitellä standardia ja se saatiin julkaistua seitsemän vuoden kehittelyn tuloksena vuonna 1997. 802.11-standardille on määritelty kolme erilaista siirtotietä:

  • 2,4 gigahertsin taajuusaluetta käyttävä FHSS (Frequency Hopping Spread Spectrum)
  • 900 megahertsin ja 2,4 gigahertsin taajuusaluetta käyttävä DSSS (Direct Sequence Spread Spectrum)
  • 820 nanometrin infrapuna-alue

802.11-standardin historia jäi varsin lyhyeksi, sillä se ei kyennyt kuin 1 ja 2 Mbps -siirtonopeuksiin, joten IEEE alkoi kehitellä uutta standardia.

Todellinen läpimurto tapahtui vuonna 1999 julkaistun 802.11b-standardin myötä, joka kykenee 11 Mbps teoreettiseen siirtonopeuteen. Kyseinen standardi käyttää hyväkseen ilmaista 2,4 - 2,483 gigahertsin taajuusaluetta, jota kutsutaan myös ISM-kaistaksi (band for the Industrial, Scientific and Medical use). 2,4 gigahertsin taajuusaluetta käyttävät hyväkseen myös muun muassa Bluetooth-laitteet, mikroaaltouunit sekä langattomat puhelimet. 802.11b-standardissa on määritelty myös 5,5 Mbps-nopeus sekä jo 802.11-standardista tutut 1 ja 2 Mbps -siirtonopeudet. 802.11b-standardissa jouduttiin käyttämään DSSS-tekniikkaa ja jättämään pois FHSS-tekniikan taajuushyppimiset, jotta 11 Mbps -nopeus pystyttiin saavuttamaan.

802.11b-standardista on olemassa myös +-versio, 802.11b+, joka eroaa b-versiosta ainoastaan siirtonopeutensa puolesta. 802.11b-laitteiden kanssa yhteensopiva standardi kaksinkertaistaa ainoastaan siirtonopeuden 22 Mbps:ään. 802.11b+-standardi on jäänyt täysin b-version varjoon, joskin laitteita on myynnissä jopa Suomessa.

Vuoden 1999 lopussa julkaistu 802.11a-standardi ei ikinä yleistynyt samoissa mitoissa kuin aiemmin käsitelty 802.11b-standardi. 802.11a-standardi käyttää hyväkseen U-UNI-taajuuksia: 5,15 - 5,25 gigahertsiä ja Yhdysvalloissa 5,25 - 5,35 gigahertsiä ja perustuu OFDM-kanavanjakotekniikkaan (Orthogonal Frequency Division Multiplexing). Standardi pystyy teoriassa jopa 54 megabitin siirtonopeuteen sekunnissa DSSS-tekniikan avulla, mutta on yhteensopiva myös 6, 9, 12, 18, 24, 36 ja 48 Mbps -nopeuksiin. 802.11a-standardin esteenä kuitenkin oli erittäin lyhyt kantoalue sekä korkea hinta, jonka takia laitteita ei markkinoilla juurikaan nähty.

802.11g-standardi on IEEE:n uusin tuotos, ja pystyy maksimissaan 802.11a-standardin tapaan 54 megabitin siirtonopeuteen sekunnissa. 802.11g käyttää hyväkseen lisensöimätöntä 2,4 gigahertsin taajuusaluetta ja on yhteensopiva 802.11b-standardin mukaisten laitteiden kanssa. G-standardi saattaa kuulostaa turhalta, koska olemassa on jo a-standardi. Kannattaa kuitenkin pitää mielessä, että g-standardi pystyy huomattavasti pidempään kantamaan kuin a-standardi, teoriassa samoihin kuin b-standardi.

802.11-standardin kehitystyö jatkuu edelleen ja luvassa on ainakin vielä e-, h- ja i-standardit. 802.11e-standardille ollaan povaamassa julkaisua vielä tämän vuoden puolelle ja uudistuksina tästä tulisi löytymään g-standardiin verrattuna parannetut ominaisuudet esimerkiksi puheluiden häiriöttömään lähettämiseen. 802.11h pohjautuu 802.11a-standardiin ja tästä mallista tulee löytymään automaattinen lähetystehon säätö sekä taajuuskanavan valinta. H-standardin mukaisia laitteita voidaan odotella vuoden 2004 puolella. 802.11i-standardissa on kehitetty varsinkin tietoturvaa ja salaus hoidetaan erillisellä prosessorilla.

WLAN - Verkkomallit

WLAN-verkko voidaan rakentaa joko tukiasemalla tai ilman sitä. Jos käytössä ei ole tukiasemaa, on kyseessä ad-hoc-verkko, jos taas tukiasema on liitetty osaksi verkkoa, käytössä on infastruktuuriverkko. Tutkitaan aluksi halvempi tapa, eli ad-hoc-verkkoratkaisu:

Ad-hoc-verkkoa käytettäessä ei siis tarvita lainkaan tukiasemaa, joka laskee kustannuksia heti reilusti yli 100 eurolla. Tässä on kuitenkin omat haittapuolensa, sillä ilman tukiasemaa tietokoneiden välinen kantama ei myöskään veny kovinkaan suureksi, koska kaikkien verkossa olevien tietokoneiden pitää olla yhteydessä toisiinsa. Tukiasemalla kantama saadaan teoriassa kasvatettua jopa kaksinkertaiseksi.

Ad-hoc on hyödyllinen ratkaisu pienissä tiloissa, koska verkko tietokoneiden välillä saadaan rakennettua nopeasti ja vaivattomasti. Tietoa kulkee suoraan osoitetulle koneelle, ei siis kaikkien ad-hoc-verkossa olevien tietokoneiden läpi rasittaen samalla turhaan verkkoa.

Infastruktuuriverkko jaetaan kahteen eri ryhmään: BSS:ään (Basic Service Set) ja ESS:ään (Extended Service Set). Näistä ensimmäisenä mainittu on varmasti yleisin ja soveltuu hyvin koteihin sekä toimistoihin. Tässä verkossa on käytössä ainoastaan yksi tukiasema, jonka kautta tietokoneet ovat yhteydessä lähiverkkoon.

Muropaketin testeissä sovellamme juuri tätä tapaa, sillä tukiasemaan on yhteydessä kaksi WLAN-kortilla varustettua konetta. Itse tukiasema taas on yhteydessä kytkimeen, joka jakaa ADSL-yhteyden tukiasemalle sekä kolmelle muulle 100 Mbps -nopeuksinen verkon päässä olevalla tietokoneelle.

BSS-verkko muuttuu ESS-verkoksi, kun aliverkon muodostaa useampi kuin yksi BSS-verkko, käytännössä siis tarkoittaen että tukiasemia on kaksi tai useampi. Yleensä tukiasema on yhteydessä langalliseen verkkoon, mutta on myös mahdollista yhdistää useampi tukiasema langattomasti toisiinsa. Tällöin tukiasemien kantamaa voidaan kasvattaa ja tietokoneet voivat olla yhteydessä toisiinsa entistä pidempien matkojen päästä.

Hyvä esimerkki tästä on matkapuhelinverkoissa käytettävät tukiasemat, joilla pyritään minimoidaan taajuusalueen ulkopuolelle jäävät katvealueet rakentamalla tukiasemia tarpeeksi lähelle toisiinsa, jolloin matkapuhelimen käyttö on mahdollista melkeinpä mistä vain ja minne vain.

WLAN - Tietoturvaongelmat

WLAN-verkoissa on myös omat riskinsä ja suurimmat näistä varmasti liittyvät tietoturvaan, koska tieto liikkuu ilmassa, josta se on huomattavasti helpompi kaapata kuin normaalista kaapelista. Periaatteessa kuka tahansa pystyy vastaanottamaan signaalia, jos vain on WLAN-verkon kantaman sisällä.

Hajaspektritekniikka (FHSS ja DSSS) itsessään tosin jo tekee WLAN-liikenteen seuraamisen vaikeaksi ulkopuoliselle ei-toivotulla käyttäjälle, mutta tietoturvaa voidaan edelleen parantaa salaamalla kaikki verkossa lähetettävä tieto. Tämä taas tuo uusia ongelmia, sillä salaamalla tieto, samalla myös menetetään tiedonsiirtonopeuksissa. Infrapunatekniikkaa hyödyntävissä verkoissa tietoturvariskit ovat minimaalisen pienet, eikä tieto varmasti karkaa vääriin käsiin, mutta näiden käyttö on erittäin harvinaista.

Uusimmat standardit kuten 802.11b ja 802.11g tukevat WEP-salausta 64- sekä 128-bittisenä, mutta tämä ratkaisu ei ole tietoturvan kannalta pomminvarma. WEP-salaus pystytään kohtalaisen helposti purkamaan ja tämän jälkeen verkkoa voidaan väärinkäyttää saadun avaimen avulla. Parempia vaihtoehtoja WLAN-verkon suojaukseksi ovat esimerkiksi IPsec- ja VPN-ratkaisut.

WLAN - Muut ongelmat

Tietoturvaongelmien lisäksi verkon toimintaa saattaa häiritä paljon normaalimmatkin asiat, joita normaali kuluttaja ei välttämättä tule edes ajatelleeksi WLAN-verkon hankinnan yhteydessä.

Yksi suurimmista ongelmista varmasti on WLAN-yhteyksien lähetysteho (maksimissaan 100mW), jonka takia kantama ei riitä kovinkaan pitkälle, jos näköyhteyden tiellä on seiniä tai vaikkapa puita. Jos verkko taas on tarkoitus rakentaa kahden talon välille, saattaa syntyä ongelmia tiedonsiirtonopeuksien kanssa rankkasateella ja kovissa lumipyryissä. Muita yleisiä ongelmia ovat heijastukset sekä ympäristössä olevat erilaiset häiriölähteet, kuten mikroaaltouunit 2,4 gigahertsin taajuudella.

Belkin - Tukiasema

WLAN-artikkeliamme varten saimme haalittua Belkinin valmistaman tukiaseman ja PCI-kortin sekä Buffalon PCMCIA-kortin kannettavaan tietokoneeseen.

Belkin Wireless Network Access Point -tuotesivut

Belkin Wireless Desktop Network Card -tuotesivut

Buffalo Wireless 54Mbps Cardbus Bus -tuotesivut

Belkinin tukiaseman mukana ei tule mitään kovin ihmeellisiä oheistavaroita: jalka, jolla tukiasema saadaan seisomaan pystyasentoon, virtakaapelit, ohjekirja, pika-asennusopas sekä kiitos-lappunen.

Belkinin tukiasema on varsin tyylitellyn näköinen, joka herättää kuluttajissa varmasti ristiriitaisia tunteita. Harmaan eri sävyjä omaavalla tuotteella on korkeutta noin noin neljä senttimetriä ja kummatkin antennit pystyasennossa kymmenisen senttimetriä. Leveyttä on 24 ja syvyyttä 15 senttimetriä. Tukiaseman päältä löytyy neljä reikää, joiden kautta lämmin ilma saadaan tukiasemasta pois. Suositeltavaa siis on, ettei näitä reikiä tukittaisi tai tukiaseman päälle asetettaisi ainakaan aivan kiinni esimerkiksi kytkintä. Etuosasta löytyy ledirivistö, joka käsitellään myöhemmin ja pohjasta vastaavasti neljä kumitassua, joilla tukiasema saadaan pysymään paikoillaan.

Belkiniltä testiin saapunut tukiasema on 802.11g/54g-malliston halvin malli, jolla on hintaa suoraan valmistajalta tilatessa 174,99 dollaria. Kalliimmasta mallista löytyy lisäksi reititinominaisuudet ja hintaa on 15 dollaria enemmän.

Tukiasema on yhteensopiva 801.11g-standardin mukaisten laitteiden kanssa, mutta verkossa voidaan käyttää myös vanhempia 802.11b-laitteita, jotka kykenevät teoriassa ainoastaan 11 megabitin siirtonopeuteen sekunnissa. Tämä on hyvä asia, sillä varsinkin useilla yrityksillä on jo entuudestaan hankittuna paljon 802.11b-standardin mukaisia laitteita. Näin säästetään paljon kustannuksissa, koska verkon päivityksen yhteydessä kaikkia laitteita ei jouduta uusimaan. Tuote tukee myös 64- ja 128-bittistä WEP-salausta ja on varustettu elinikäisellä takuulla.

Mukana tulevan jalan avulla tukiasema saadaan asetettua myös pystyasentoon. Tästä on hyötyä esimerkiksi toimistoissa, joissa pöytätila on hyvin rajoitettu. Kiinnitys voidaan toteuttaa tukiaseman molempiin reunoihin. Antennit kääntyvät 180 astetta, joten ne voidaan jalustaa käyttäessä kääntää vaikkapa ylöspäin, jolloin ne eivät osoita häiritsevästi suoraan sivulle.

Takaa ei löydy mitään kovin erikoista: reunoilla antennit, vasemmasta reunasta virtaliitin ja tämän vierestä RJ45-liitin, jolla tukiasema voidaan liittää vaikkapa suoraan kytkimeen. Oikeasta reunasta löytyy vielä pieni reikä, jolla tukiasema voidaan nollata.

Edestä löytyy kolme eri lediä: virta, WLAN sekä LAN ja kaikki ledit voivat ilmaista kolmea eri asiaa. Kun virtaledi ei pala, ei tukiasema luonnollisesti saa virtaa, kun se taas vilkkuu, tukiasema on ”käynnistys-vaiheessa” ja kun se palaa yhtämittaisesti, tukiasema on valmis käytettäväksi.

WLAN-ledi voi niin ikään olla palamatta, jolloin langaton verkko ei toimi ja yhtämittaisesti vihreänä se tarkoittaa langattoman verkon olevan toimintakunnossa. Kun ledi vilkkuu, liikkuu tavaraa tukiaseman läpi tietokoneille. Kummatkin edellä mainitut ledit näkyvät ainoastaan vihreinä.

LAN-ledi voi olla joko oranssi tai vihreä. Kun ledi ei pala, kaapelia ei ole yhdistetty tukiasemaan, yhtämittaisena vihreänä yhteys on 10 Mbps -nopeuksinen ja oranssina 100 Mbps -nopeuksinen. Ledi voi vilkkua joko oranssina (100 Mbps) tai vihreänä (10 Mbps), jolloin se ilmaisee tiedon liikkumisen tukiaseman kautta.

Belkin - PCI-kortti

Belkin toimitti myös PCI-väylään asennettavan kortin, jonka mukana tulevat oheismateriaalit ovat samat kuin tukiasemankin, mutta lisäksi mukana tulee ajuri-CD.

PCI-väylään asennettava kortti on varustettu varsin muhkealla 99,99 dollarin hintalapulla, tämäkin siis kun kortti tilataan suoraan valmistajalta. Noin yhdeksän senttimetriä pitkä antenni on mahdollista vaihtaa myös pöytämalliseen antenniin, jolloin signaalin laatua ja vahvuutta saadaan nostettua. Tällä erikseen tilattavalla antennilla on hintaa 24,99 dollaria.

Verkkoliikenteen hoitaa Broadcomin valmistama BCM4306KEB-piiri, joka oli yksi ensimmäisistä 802.11g-standardia tukevista piireistä, jotka markkinoille aikoinaan saapuivat.

Buffalo - PCMCIA-kortti

Koska Belkiniltä tullutta korttia ei voida asentaa kuin normaaliin työpöytäkoneeseen, eikä tietokoneen raahaaminen näytön kanssa jatkojohdon päähän kuulostanut kovinkaan houkuttelevalta, järjestimme WLAN-artikkeliimme myös PCMCIA-väyläisen Buffalo WLI-CB-G54A -kortin kannettavaan tietokoneeseen. Testit toteutettiin siis käyttäen Buffalon korttia kannettavassa tietokoneessa sekä Belkinin tukiasemaa.

Noin 80 euron hintaisen kortin mukana toimitetaan ajuri-CD, pika-asennusopas sekä kasa turhia lappusia.

802.11g-standardin mukainen Buffalo WLI-CB-G54A -kortti ei eroa ulkoisesti lainkaan vanhemmasta 802.11b-standardia tukevasta WLI-CB-B11-kortista. PCMCIA-kortti tukee 64- sekä 128-bittisiä WEP- ja VPN-suojauksia. Ajurit löytyvät Windows XP-, 2000-, ME- ja 98SE-käyttöjärjestelmille, mutta valitettavasti kehitystiimi on unohtanut kokonaan Linuxin.

Kortin yläosasta löytyy kaksi lediä: vasemmanpuoleinen ilmoittaa virransaannin ja toinen tiedon liikkumisen. Laitteeseen on myös mahdollista asentaa ulkoinen antenni.

Buffalo lupaa PCMCIA-kortillaan täyttä nopeutta sisätiloissa 20 ja ulkotiloissa 50 metrin matkalla, 18 Mbps -nopeudella sisällä 75 ja ulkona 150 metrin matkalla. 802.11b-standardin mukaista 11 Mbps -nopeutta luvataan sisällä 125 ja ulkona 180 metrin matkalla sekä viimeisenä mainittuna 1 Mbps -nopeutta sisällä 125 ja ulkona jopa 570 metriin asti. Nämä ovat varmasti täysin optimaalisissa olotiloissa mitattuja ja vain karkeasti suuntaa antavia matkoja.

Ajurit - Buffalo

Buffalon kortin mukana ei tule mitään erikoisempaa ohjelmaa, jolla voitaisiin tutkia tarkemmin nopeutta, signaalin laatua tai muita tietoja. Testeissä käytettiin alustana Windows XP -käyttöjärjestelmää, jossa yhteysvälilehdeltä näkee muutamat tärkeimmät WLAN-ominaisuudet: nopeuden sekä signaalin laadun.

Buffalon laitteessa nopeus voi olla joko 54, 48, 36, 24, 18, 12, 9 tai 6 Mbps ja nopeus vaihtuu automaattisesti hitaampaan/nopeampaan signaalin laadun mukaan, joka näkyy viitenä vihreänä pystypalkkina.

Nopeus ja signaalin laatu voidaan tarkistaa myös nopeasti siirryttäessä hiiren kanssa yhteyskuvakkeen päälle. Yllä olevan kuvan tapauksessa kannettava tietokone oli sijoitettu tukiasemasta noin metrin päähän, jolloin yhteys oli paras mahdollinen.

Ajurit - Belkin

Belkinin PCI-kortin mukana tulee kattavahko ohjelma, jolla saadaan monitoroitua huomattavasti tarkemmin kortin toimintaa ja ominaisuuksia. Link Status -välilehdeltä löytyy WEP-salaus (pois päältä / 64-bittinen / 128-bittinen), nopeus, IP-osoite (sensuroitu punaisella), verkon tyyppi (ad-hoc tai infrastruktuuri) sekä signaalin laatu.

Vastaavasti Site Monitor -välilehdeltä paljastuu löytyvät verkot muutaman tiedon kera, standardit, signaalin laatu sekä tuetut nopeudet.

Testikokoonpano

Kuten jo pari sivua taaksepäin totesimme, testien aikana verkko oli rakennettu seuraavanlaisesti:

  • ADSL-purkki liitetty kytkimeen
  • Kytkin jakaa kolmelle koneelle 100 Mbps -yhteyden
  • WLAN-tukiasema on yhteydessä kytkimeen
  • WLAN-tukiasemaan on yhteydessä kannettava tietokone sekä työpöytäkone

Testit ajettiin kannettavalla tietokoneella, joka oli yhteydessä tukiaseman ja kytkimen kautta kaapelin päässä olevaan pöytäkoneeseen.

Testit toteutettiin käyttämällä Buffalon PCMCIA-korttia Dell Inspiron 8500 -kannettavassa tietokoneessa, johon asennettiin Windows XP -käyttöjärjestelmä. Testiohjelmina käytettiin SiSoft Sandra 2003:sta, Qcheckiä sekä normaalia tiedoston kopiointia koneelta toiselle. PCMCIA-kortti pyrittiin osoittamaan mahdollisimman suoraan tukiasemaa kohti.

Testikokoonpano:

  • Dell Inspiron 8500
  • Buffalo WLI-CB-G54A
  • Windows XP SP1

Testitulokset

Testit suoritettiin kuudella eri tavalla:

  • 100 Mbps: Kaapelilla suoraan kytkimeen
  • 54 Mbps Sijainti 1: 0,5 metrin matka tukiasemaan, suora näköyhteys
  • 54 Mbps Sijainti 2: 3 metrin matka tukiasemaan, seinä välissä
  • 54 Mbps Sijainti 3: 4 metrin matka tukiasemaan, lattia välissä
  • 54 Mbps Sijainti 4: 10 metrin matka tukiasemaan, ulkotila, suora näköyhteys
  • 54 Mbps Sijainti 5: 30 metrin matka tukiasemaan, ulkotila, puska ja ikkuna välissä

Ensimmäisenä testiohjelmana käytimme vanhaa tuttua SiSoft Sandra 2003:a ja sen Network/LAN Bandwidth -testiosiota. Kaapelilla luonnollisesti saavutetaan ylivoimaisesti parhaimmat tulokset, mutta WLAN:ia käytettäessä optimaalisimmassa tilanteessa saavutetaan lähemmäs 30 Mbps -nopeus. Sijainti 2:n ja 4:n välille ei muodostu kovinkaan paljon eroa, mutta Sijainti 5:n kohdalla tapahtuu reipas notkahdus. Tällöin tulos on yli kuusi kertaa huonompi kuin Sijainti 1:ssä.

Toisena testiohjelmana käytimme Qcheckiä, jonka kanssa testattiin ensimmäiseksi viiveaikoja. Kuten tuloksista huomataan, viiveajat jäävät olemattoman pieniksi ja ainoastaan Sijainti 3:ssa ja 5:ssä muodostuu hieman eroa.

Qcheckin toisella testiosiolla testattiin nopeutta, jolloin tulokset ovat hieman huonommat kuin SiSoft Sandra 2003:lla testatessa. Sijainti 1:n ja 2:n välinen ero on hyvin pieni, tosin ei Sijainti 4:kään jää kuin noin 25 prosenttia jälkeen. Sijainti 3 -tapauksessa jäädään jo reilut 50 prosenttia ja Sijainti 5:ssä jopa lähemmäs 900 prosenttia.

Mukaan otettiin myös käytännön testinä 396 megatavuisen tiedoston kopiointia ja tästä mitattiin siirtoon kulunut aika. Tulokset ovat hyvin samankaltaiset muidenkin testiohjelmien testitulosten kanssa.

Loppusanat

Kaiken kaikkiaan 802.11g-standardin mukaiset WLAN-laitteet olivat varsin positiivisia yllätyksiä, sillä asennuksen yhteydessä kuten myös käytön aikana ei ilmennyt minkäänlaisia ongelmia. Langatonta verkko harkitsevalle varsinkin laitteiden korkea hinta saattaa olla monelle liian painava syy. Tukiaseman kanssa kun WLAN-verkon hinta muutamalle tietokoneelle saattaa kavuta useisiin satoihin euroihin, kun kaapelilla toteutettu verkko saadaan rakennettua alle sadalla eurolla. Normaalilla kaapeliverkolla taataan halvan hinnan lisäksi pitkilläkin matkoilla myös kiitettävä nopeus sekä yhteyden häiriöttömyys.

Toimivuus sisä- ja ulkotiloissa oli testien aikana hyvä, vaikka kahta kerrosta alempana signaalin vahvuus laskikin tukiasemaan liian alhaiseksi, eikä yhteys enää toiminut. Ulkotiloissa nopeus alkaa muutamien kymmenien metrien päässä olemaan turhan alhainen, ja jää rajoittavaksi tekijäksi siirtonopeuksien puolesta surffaillessa hiemankin nopeammalla ADSL-yhteydellä.

WLAN-yhteys esimerkiksi toimistoihin, joissa ihmiset liikkuvat paljon kannettavien tietokoneiden kanssa, on lähes ehdoton nykypäivänä. Langallinen verkko vastaavasti on edelleen nopeutensa ja kantamansa puolesta erittäin suositeltava vaihtoehto monikerroksisiin taloihin tai luotaessa verkkoa esimerkiksi kahden eri talon välille. Kun WLAN-yhteyksien nopeus saadaan vielä tuplattua ja kantomatkaa lisättyä reippaasti, en näe mitään syytä miksei tästä syntyisi vielä lähitulevaisuudessa syrjäyttäjää langallisille verkkoratkaisuille.

Testien jälkeen langallinen verkko löytyy edelleen allekirjoittaneen työpöytäkäyttöön suunnattujen tietokoneiden väliltä. Kannettavaan tietokoneeseen sen sijaan jäi Buffalon sovitin ja ikkunan viereen Belkinin tukiasema, sillä mikä olisikaan näin kesäisin mukavampaa, kuin loikoilla ulkona riippukeinussa ja selailla Muropaketin uutisia ja artikkeleita.

Belkin Wireless Network Access Point -tuotesivut

Belkin Wireless Desktop Network Card -tuotesivut

Buffalo Wireless 54Mbps Cardbus Bus -tuotesivut

Ville Suvanto 22. heinäkuuta (ville.suvanto@muropaketti.com)

>> Etusivulle

 

Näkyvissä kommentit 1-50. Yhteensä 2024 kommenttia.

1.
Eli tarkoittaako tuo että lähennytään nvidian arkkitehtuuria?

Hitto, ehkei näistä olekkaan bitcoin-mainaukseen :smoke:

2.
Torz, jep, mutta ovat todennäköisesti paljon parempia suurimmalla osalla muita GPGPU-kuormia.
3.
Osaako joku selittää maallikolle miten toi multiple simd eroaa vliwistä ja nvidian arkitehtuurista tai mitä sen edut on aiempaan nähden?
4.
[SPOILER]




[/SPOILER]

Ei paljoa kerro itselle, mutta ehkä joku osaa suomentaa. :smoke:

Vissiin kuitenkin on siis tulossa jo ihan 7xxx-sarjaan eikä vasta sen jälkeen? Eli VLIW4 ei kelvannutkaan AMD:lle?

5.
Itsehän spekuloin B3D:n puolella tuossa jotta kenties 32nm peruminen, joka myöhästytti HD6-sarjaa, sai AMD:n hylkäämään sen mitä tarkoitettiin alunperin HD7-sarjaksi (VLIW4) ja nyt tuleva HD7 sarja onkin mitä alunperin meinattiin HD8ksi vasta.

edit:
http://www.hardware.fr/news/11648/afds-architecture-futurs-gpus-amd.html
Tuolla on kaikki slidet
6.

Lainaus:
Alkuperäinen kirjoittaja anidabiNäytä viesti

Osaako joku selittää maallikolle miten toi multiple simd eroaa vliwistä ja nvidian arkitehtuurista tai mitä sen edut on aiempaan nähden?


Yksinkertaisesti sanoen Simd muistuttaa paljonenempi CPUta joten se kykenee paremmin hyvinmonenlaisiin laskentatehtäviin ("pelkän näytön ohjauksen sijasta").
7.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti

Itsehän spekuloin B3D:n puolella tuossa jotta kenties 32nm peruminen, joka myöhästytti HD6-sarjaa, sai AMD:n hylkäämään sen mitä tarkoitettiin alunperin HD7-sarjaksi (VLIW4) ja nyt tuleva HD7 sarja onkin mitä alunperin meinattiin HD8ksi vasta.

edit:
AFDS: L'architecture des futurs GPUs AMD! - Cartes Graphiques - HardWare.fr
Tuolla on kaikki slidet


Eli tämä on ensimmäinen Ati GPU insinöörien ja AMD CPU insinöörien täysinyhdessä suunnittelema GPU
(aikaisemmat suunnitteluthan on ehditty aloittaa ennen kuin Ati ja AMD oli täysin yhdistynyt).

Jännä nähdä miten hyvä näytönohjain on lopputuloksena.

Se on selvää että kyseessä tulee olemaan hyvä HPC laskenta kortti.

Mutta missämäärin näytönohjein resursit on altavastaajana.

Nvidian 570-590 kun on suunniteltu paljolti HPC piiriksi joten siinä on paljon transistoreja joilla ei ole juurikaan käyttöä näyttiskorttina, tuleekohan AMDn seuraavassa GPUssa olemaan sama tilanne.

8.
Ati/AMD näyttiksethän on suorituskyvyn osalta olleeet riippuvaisempia ajuritason optimoinnista kuin Nvidia näyttikset nyt tämä tilanne on korjattu.

Tuo uusi GPU taitaa tykätä Mhz:stä paljon enempi kuin vanhat.


Yksiasia huolestuttaa

AMDhan joutuin rahapulasssa potkimaan väkeä pellolle ja nyt niillä on tuettavana

Phenom, Bulldozer ja Bobcat CPUt + Vliw5, Vliw4 ja Simd GPUt

Mitenkähän niillä riittää porukkaa ylläpitotöihin
esim. ajuritukeen vanhemmille CPUlle ja GPUille.

9.
AMD ei ole potkinut ajuritiimeistään tahi suunnitteluosastoiltaan muistaakseni ketään, vain "turhia" päällekkäisyyksiä ja esim demo-tiimin
10.

Lainaus:
Alkuperäinen kirjoittaja IcePenNäytä viesti

Eli tämä on ensimmäinen Ati GPU insinöörien ja AMD CPU insinöörien täysinyhdessä suunnittelema GPU
(aikaisemmat suunnitteluthan on ehditty aloittaa ennen kuin Ati ja AMD oli täysin yhdistynyt).

Jännä nähdä miten hyvä näytönohjain on lopputuloksena.

Se on selvää että kyseessä tulee olemaan hyvä HPC laskenta kortti.

Mutta missämäärin näytönohjein resursit on altavastaajana.

Nvidian 570-590 kun on suunniteltu paljolti HPC piiriksi joten siinä on paljon transistoreja joilla ei ole juurikaan käyttöä näyttiskorttina, tuleekohan AMDn seuraavassa GPUssa olemaan sama tilanne.



Vaikka tämä onkin ensimmäinen "täysin uusi arkkitehtuuri" sitten yhdistymisen, mikään ei viittaa oikeasti siihen että AMD:n CPU-puolen ingenjöörit olisivat osallisena tässä GPU:ssa, etenkään kun heillä on ollut jatkuvasti kädet täynnä Bulldozerien ja Bobcattien kanssa - ainut jossa CPU/GPU -tiimit ovat selkeästi tehneet yhteistyötä on Fusion-projekti, jossa kummankin osaamista on käytetty siihen että saadaan ne olemaan yhtä yhtenäistä piiriä
11.
Toi eka simd fusion siru tulee olemaan mielenkiintoinen. Varsinkin jos softan ovat saaneet siihen mennessä raudan kehityksessä kiinni.
12.
Rakenne näyttää aika oudolta näyttis-workloadeja silmälläpitäen.

Mikäli ymmärrän tuota oikein, niin:

Tuossa siis SPMD-leveys on pudotettu 16sta 4ään, eli yksi prosessori ajaa 16 säikeen sijasta 4ää rinnakkain(mikäli niiden ohjelmalaskurit näyttävät samaa arvoa) mutta sitten yhdessä säikeessä pitäisi olla 16 data-alkion verran rinnakkaista dataa jolle suoritetaan sama operaatio. (ja normaalistihan esim. näyttis-käytössä yhden pikselin 3 värikanavaa + alfa-kanava ovat vain 4n alkion verran rinnakkaista dataa)

Mitä olen käsittänyt väärin?

13.

Lainaus:
Alkuperäinen kirjoittaja hkultalaNäytä viesti

Rakenne näyttää aika oudolta näyttis-workloadeja silmälläpitäen.

Mikäli ymmärrän tuota oikein, niin:

Tuossa siis SPMD-leveys on pudotettu 16sta 4ään, eli yksi prosessori ajaa 16 säikeen sijasta 4ää rinnakkain(mikäli niiden ohjelmalaskurit näyttävät samaa arvoa) mutta sitten yhdessä säikeessä pitäisi olla 16 data-alkion verran rinnakkaista dataa jolle suoritetaan sama operaatio. (ja normaalistihan esim. näyttis-käytössä yhden pikselin 3 värikanavaa + alfa-kanava ovat vain 4n alkion verran rinnakkaista dataa)

Mitä olen käsittänyt väärin?

Koko AMD:n SIMD VLIW-prosessorin. Eli nykyinen AMD:n Vliw4-konfiguraatio on yksi 16 leveä SIMD-käsky joka sisältää 4 32 bittistä rekisteriä Vliw-konfiguraatiossa(16*4 eli 64 käskyä samassa paketissa). Kun em. prosessorin joka VLIW-palalle annetaan oma front-end rekisterinkäsittelyyn saadaan 4 kpl 16-leveää SIMD prosessoria, itse alupuolihan voi pysyä aivan samana.

Ja näyttiskäytössähän rinnakkaista dataaa on ihan loputtomiin, 16 data-alkiota kerrallaan ajavat nykyiset shaderit sekä AMD:llä että nvidialla ja valinta on tehty rautapuolen takia, 512 bittiä on tällähetkellä optimaalinen rekisterin pituus em. sortin prosessoreissa.

Alkaa näyttää siltä että nVidia osui unifiedshadereissa heti oikeaan, AMD hapuiili kun käytti pohjana vanhaa pikselitason rinnakkaisuutta....

14.
Pikemminkin niin että nVidia osui HPC-tulevaisuuden kannalta oikeaan heti, unifiedshaderit ovat täysin irrallinen asia tuosta ja kummankin ratkaisu toimii sillä saralla ihan hyvin (juu, käyttöaste on selkeästi parempi nVidialla, mutta toisaalta AMD:n ratkaisulla saatiin puristettua julmetusti pienempään tilaan vastaavat tehot huolimatta heikommasta hyötysuhteesta itse yksikköjen/raa'an tehon suhteen.

Se mikä on mielenkiintoista nähdä, on että minkä kokoisia piirejä noista nyt tulee, pystyykö AMD täydellisestä arkkitehtuurimuutoksesta huolimatta pitämään piirinsä pienempinä kuin nVidian samantehoiset vai kasvaako AMD:n piirit suhteessa nVidian piireihin samaan kokoluokkaan?
15.

Lainaus:
Alkuperäinen kirjoittaja Sami RiitaojaNäytä viesti

Koko AMD:n SIMD VLIW-prosessorin. Eli nykyinen AMD:n Vliw4-konfiguraatio on yksi 16 leveä SIMD-käsky joka sisältää 4 32 bittistä rekisteriä Vliw-konfiguraatiossa(16*4 eli 64 käskyä samassa paketissa).

Nykymallissa siellä on 16 käskypointteria, 16 säiettä.
(tai no, oikeasti 64 säiettä, koska jokainen prossu on vielä 4-way barrel-prosessori)
Niin kauan kuin nämä 16 käskypointteria osoittavat samaan käskyyn, homma toimii kivasti kuin 16-way SIMD. Jos joku säie ottaakin erilaisen hypyn kuin joku muu säie, maskataan se SIMD-linja ehdollisella suorituksella ulos, ja sen jälkeen ajellaan erikseen siten että maskataan muut SIMD-linjat ulos.


Lainaus:


Kun em. prosessorin joka VLIW-palalle annetaan oma front-end rekisterinkäsittelyyn saadaan 4 kpl 16-leveää SIMD prosessoria, itse alupuolihan voi pysyä aivan samana.


Lainaus:


Ja näyttiskäytössähän rinnakkaista dataaa on ihan loputtomiin

On käskytason rinnakkaisuutta, säietason rinnakkaisuutta ja datatason rinnakkaisuutta, ja nämä ovat eri asioita.

Näyttiksen shadereissa ei nykyaikana ole enää pelkkää datatason rinnakkaisuutta, vaan koska shaderit tukevat haarautumista, se on säietason rinnakkaisuutta.

SMPD-malli, jossa joka pikselille tehdään oma säie on kääntäjälle helppo hallita haarautumisen suhteen; Kääntäjä voi kääntää koodin yhdelle pikselille, aivan kuin prosessorissa ei olisi mitään SIMDiä. Ajoaikana sitten niputetaan saman ohjelmalaskurin säikeet yhteen tai eriytetään ja maskaillaan linjoja ulos, jos ohelmalaskurit eroavat.

Jos monta pikseliä(alkuperäistä säiettä) ängetään samaan säikeeseen, nousee erilaisten haarautumisvaihtojen ja sen myötä koodipolkujen määrä säikeen sisällä eksponentiaalisesti. Niin kauan ei haittaa, kun haarautumiet on yksinkertaisia(hypätään vaan parin käskyn yli), jotka voidaan if-convertoida pois predikoiduiksi käskyiksi, mutta jos haarautumiset on monimutkaisempia joissa käskyosoittinta pitää oikeasti muuttaa, tulee eksponentiaalinen räjähdys.


Lainaus:


16 data-alkiota kerrallaan ajavat nykyiset shaderit sekä AMD:llä että nvidialla ja valinta on tehty rautapuolen takia, 512 bittiä on tällähetkellä optimaalinen rekisterin pituus em. sortin prosessoreissa.

.. tai sitten, koska tuo on paras kompromissi sen suhteen, paljonko käskyen hausta ja prosessorin etupäästä tulee overheadia verrattuna siihen, paljonko eri simd-linjojen eroavat käskyosoittimet hidastavat.


Lainaus:


Alkaa näyttää siltä että nVidia osui unifiedshadereissa heti oikeaan, AMD hapuiili kun käytti pohjana vanhaa pikselitason rinnakkaisuutta....

Tarkoittanet "pikselin sisäistä" rinnakkaisuutta, etkä pikselien välistä.

Ja ajettava koodi muuttuu, ja nuo GPUt ovat muuttuneet paljon.
AMDn ratkaisu oli selvästi oikea normaaliin GPU-hommaan tässä viime vuosina, muttei enää tulevaisuudessa.


Se, miten itse ymmärään noita slidejä on, että tuo muistuttaa enemmän Larrabeetä kuin AMDn/nvidian aiempia GPUita, sillä erolla, että käskykannassa ei ole mitään x86-pohjaista.

16.

Lainaus:
Alkuperäinen kirjoittaja hkultalaNäytä viesti

...
Se, miten itse ymmärään noita slidejä on, että tuo muistuttaa enemmän Larrabeetä kuin AMDn/nvidian aiempia GPUita, sillä erolla, että käskykannassa ei ole mitään x86-pohjaista.


Sama ajatus tuli itsellläni siksi puhuin hyvästä HPC laskenta ominaisuudesta.
17.
Introducing C++ Accelerated Massive Parallelism (C++ AMP) - Visual C++ Team Blog - Site Home - MSDN Blogs

C++ tuki tulossa AMDn seuraavaan GPUun, C++ AMP (Accelerated Massive Parallelism) muodossa. Microsoft tulee tuomaan oman C++ AMP tukensa DirectComputen kautta, mutta itsessään C++ AMP on vapaa standardi. MS:n tuki tulee seuraavan MS VisualStudion mukana.

Se mikä itselle jäi auki on onko tuo nyt AMD:n kehittämä kun Fusion Developer Summitissa julkaistiin, vai MS:n. MS on joka tapauksessa tehnyt töitä tuon eteen.

Jotain slidejä tältä päivältä, lisää AMD Fusion Developer Summit 2011: Live Blog | PC Perspective

Onko tässä ensimmäinen GPU joka voi rehdisti väittää olevansa (myös) MIMD, kun Larrabee ei (GPUna) ikinä materialisoitunut?

Nykyinen HD6900:


Next gen:








18.
Eikös nuo muistinhallinta uudistukset vaadi lisää käskyjä prosessoriin, taas jotain uutta jonka Intel joutuu lisensoimaan AMDltä?
19.
Miksi tarvittaisiin lisää käskyjä?

Tämähän on varmaan ensimäinen askel sitä todellista CPU:n ja GPU:n fuusiota. Kohta päästään kääntämään niitä Linux-kerneleitä noilla. :eek:

20.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti


Onko tässä ensimmäinen GPU joka voi rehdisti väittää olevansa (myös) MIMD, kun Larrabee ei (GPUna) ikinä materialisoitunut?

Koko MIMD selitys on aina pinnalla kun ei tajuta missä koko gpu-laskennassa on kysymys. Eli jokainen nykyinen gpu on MIMD, esimerkiksi vaikka radeon 5800 omaa 20 yhtäaikaista shaderikäskyä rinnakkain. Sen sijaan itse yksi käsky on tottakai ja tulee olemaankin SIMD eli yksi käsky vaikuttaa ainakin siihen 16 data alkioon kerralla, koko gpu:n laskenteho perustuu em. asiaan eli turhan päällekkäisyyden poistamiseen rinnakkaistuvassa laskennassa, korkeintaan on odotettavissa rekisterin pituuden lisäys eli 32 data-alkiota per käsky tulee jossain vaiheessa.

Ja AMD:n suunnitelmat näyttävät pikaisesti aivan samoilta kuin nVidian, tosin nVidian vastaava toteutus piirin threadien käsittelystä on ollut jo myynnissakin pitkään, ja integraatio CPU:n kanssa on nVidian suunnitelmissa ARM x86:n sijaan.

21.
Jos saavatte enne nvidian sukupolvea ulos nämä nii eiköhä yrityksen tulostili näytä rankasti plussaa :)
22.

Lainaus:
Alkuperäinen kirjoittaja Sami RiitaojaNäytä viesti

Koko MIMD selitys on aina pinnalla kun ei tajuta missä koko gpu-laskennassa on kysymys. Eli jokainen nykyinen gpu on MIMD, esimerkiksi vaikka radeon 5800 omaa 20 yhtäaikaista shaderikäskyä rinnakkain. Sen sijaan itse yksi käsky on tottakai ja tulee olemaankin SIMD eli yksi käsky vaikuttaa ainakin siihen 16 data alkioon kerralla, koko gpu:n laskenteho perustuu em. asiaan eli turhan päällekkäisyyden poistamiseen rinnakkaistuvassa laskennassa, korkeintaan on odotettavissa rekisterin pituuden lisäys eli 32 data-alkiota per käsky tulee jossain vaiheessa.

Ja AMD:n suunnitelmat näyttävät pikaisesti aivan samoilta kuin nVidian, tosin nVidian vastaava toteutus piirin threadien käsittelystä on ollut jo myynnissakin pitkään, ja integraatio CPU:n kanssa on nVidian suunnitelmissa ARM x86:n sijaan.



Tässä on kuitenkin ilmeisesti hieman eri tason MIMDsta kyse, kun ensimmäinen kerta kun AMD erikseen mainostaa (ja mainitsee kyllä erikseen että MIMD & SIMD, ei "pelkkä MIMD")

B3D:lla joku totesi että ainut GPU jota hän kutsuisi oikeasti MIMDiksi tällä hetkellä löytyy PowerVR:lta
23.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti

Tässä on kuitenkin ilmeisesti hieman eri tason MIMDsta kyse, kun ensimmäinen kerta kun AMD erikseen mainostaa (ja mainitsee kyllä erikseen että MIMD & SIMD, ei "pelkkä MIMD")

B3D:lla joku totesi että ainut GPU jota hän kutsuisi oikeasti MIMDiksi tällä hetkellä löytyy PowerVR:lta



No, valmistajan PR osaston satuilut kannattaa ottaa senverta runsaan suola-annoksen kanssa, jotta tuntuu..
24.

Lainaus:
Alkuperäinen kirjoittaja KampiNäytä viesti

Jos saavatte enne nvidian sukupolvea ulos nämä nii eiköhä yrityksen tulostili näytä rankasti plussaa :)


Piiri voi olla vaikka kuinka hyvä mutta tuotantoon GF/TSMC ja uusi 28nm liittyy niin paljon mikä voi tökkiä että ei voi luvata mitään, sitten kun ne on kaupoissa kunnon saatavuudella nähdään kauanko siihen meni.
25.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti


B3D:lla joku totesi että ainut GPU jota hän kutsuisi oikeasti MIMDiksi tällä hetkellä löytyy PowerVR:lta

OT
Sellasia PowerVR-fanaatikkoja tuntuu siellä jotkut käyttäjät olevan, että tämä mielipide sieltä kovi suuri yllätys.

26.
Ymmärsinkös nyt oikein, että tulevaisuudessa yksittäisen pikselin säie pyörii puhtaasti skalaarina. Nämä niputetaan 16 ryppäisiin. CU sisältää 4kpl 16 yksikön ryppäitä, ja pyörittää monta (edit, 40) 16:sta käskyn nippua rautatason scheduloinnilla näillä yksiköillä. Tällä vältetään nykyiset "clauset", eli tulevaisuudessa AMD gpu koodi voi sisältää muistiviittauksia keskellä laskentakoodia. Kun laskennassa pyörivä nippu törmää muistiviittaukseen, CU siirtää sen pois suorituksesta odottamaan että vastaus tulee muistista, ja scheduloi sen uudelleen suoritukseen kun vastaus saapuu.

Tämä muuttaa radeonien ohjelmointimallin täysin -- vliw-simd muutos on varmaan se pienin ero.

Tämä on suurimpaan osaan laskentaa todennäköisesti huomattavasti parempi arkkitehtuuri kuin AMD:n nykyinen. Ainoastaan ne kuormat, joilla ei oikeastaan tarvinnut liikutella dataa ja jotka sisältivät paljon toisitaan riippumattomia käskyjä (koodien murtaminen, bitcoin) kärsivät tästä.

Isoin jäljelle jäävä kysymys on, riittääkö Anandtechin raportoima 40 wavefronttia pitämään yksiköt töissä? Jos laskentayksiköt ovat vieläkin 4 syklin barrel-prosessoreja, laite tarvii vähintään 16 pitämään yksiköt töissä edes parhaassa mahdollisella kuormalla. Jokainen muistireferenssi jota ei palvella cachesta ottaa wavefrontin pois ~100 sykliksi, miten 40 voi riittää?

27.
Tuleva muutos on parempi kaikkeen muuhun laskentaan varmasti, mutta grafiikkaan se ei välttämättä ole parempi
28.

Lainaus:
Alkuperäinen kirjoittaja AVTuunaajaNäytä viesti

Tämä on suurimpaan osaan laskentaa todennäköisesti huomattavasti parempi arkkitehtuuri kuin AMD:n nykyinen. Ainoastaan ne kuormat, joilla ei oikeastaan tarvinnut liikutella dataa ja jotka sisältivät paljon toisitaan riippumattomia käskyjä (koodien murtaminen, bitcoin) kärsivät tästä.

Tuo arkkitehtuurin muutos muutos on tavallaan tervetullut. Itse näkisin suurimpana ongelmana tällä hetkellä AMD:n nykytilanteessa softapuolen: Stream SDK laahaa käsittääkseni NVIDIAN CUDA:a jäljessä pahasti.

29.
AnandTech - AMD's Graphics Core Next Preview: AMD's New GPU, Architected For Compute

Anandtechiltä tullut artikkeli tuosta uudesta arkkitehtuurista jos jotain kiinnostaa.

30.
AMD:llä olisi nyt mahdollisuus ottaa askel prosessoreissa, kuten X64 kanssa tehtiin.
MUTTA askel olisi syytä ottaa kohtuu nopeasti ja kaikkien AMD:n prossujen tulisi sisältää keskenään yhteensopiva uusi laskuyksikkö.

Ongelmana on se, että tuollaisen laajennuksen käyttöönotto ja hyödyntäminen vaatii ohjelmien täydellisen uudestaan suunnittelun ja kääntämisen.

Ja jotta ohjelmat ovat siinämäärin valmiita, jotta niitä viitsii käyttää, niin siinä menee noin pari vuotta.

Tässä ajassa Intel kerkeää tuoda markkinoille ensimmäisin version vastaavasta tuotteesta.
----------------------------------------------------
Kun laskentayksiköiden määrä kasvaa CPU:ssa, niin käytännössä noiden yksiköiden suorituskyvyn merkitys pienenee. Muistiväylä on erittäinpaha pullonkaula, joka rajoittaa suorituskykyä reippaasti (jos siis softa säikeistyy). Eli sen osapuolen suorittimet tulevat olemaan suorituskykyisempiä, jolla on parempi muistiohjain ja välimuistiratkaisu. Laskinyksiköiden teoreettista suorituskykyä on kohtuu turha tuijotella, ellei ero ole sitten todella huima.
31.

Lainaus:
Alkuperäinen kirjoittaja tysonNäytä viesti

Tuo arkkitehtuurin muutos muutos on tavallaan tervetullut. Itse näkisin suurimpana ongelmana tällä hetkellä AMD:n nykytilanteessa softapuolen: Stream SDK laahaa käsittääkseni NVIDIAN CUDA:a jäljessä pahasti.

Osittain syy oli paljon vaikeampi ja rajoittuneempi alusta mille kääntää.

Tuolle uudelle syntyy varmaan jopa kolmannen osapuolten kääntäjiä, kunhan hakkerit saavat leikkiä raudalla hetken. Kun yksittäisen pikselin/"säikeen" näkökulmasta koko alusta on skalaaria ja muistia saa käyttää niin kuin ihan normaaleissa prosessoreissa, kääntäjän väsäämisen vaikeus on aivan eri tasolla kun siinä edellisessä VLIW/ohjelma jaetaan paloihin ja sama pala ei saa sisältää muistihakuja ja niiden tulosten käyttöä.

32.

Lainaus:
Alkuperäinen kirjoittaja tysonNäytä viesti

Tuo arkkitehtuurin muutos muutos on tavallaan tervetullut. Itse näkisin suurimpana ongelmana tällä hetkellä AMD:n nykytilanteessa softapuolen: Stream SDK laahaa käsittääkseni NVIDIAN CUDA:a jäljessä pahasti.


Mitä tarkalleen tarkoitat tuolla? APP SDK (ex-STREAM) on ainakin OpenCL:n suhteen täysin ajantasalla
33.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti

Mitä tarkalleen tarkoitat tuolla? APP SDK (ex-STREAM) on ainakin OpenCL:n suhteen täysin ajantasalla

Joo, mutta cuda on jo paljon laajempi kuin OpenCL.

34.

Lainaus:
Alkuperäinen kirjoittaja AVTuunaajaNäytä viesti

Joo, mutta cuda on jo paljon laajempi kuin OpenCL.


Kuulemma OpenCL 1.1 kattaa ~99% CUDAn ominaisuuksista (tai ainakin kattoi ennen CUDA 4.0:aa)
35.
Eikös CUDA:n kanssa ole hieman sama tilanne kun PhysX:än kanssa, nVidia tukee omaa rajapintaansa/järjestelmäänsä paljon paremmin kuin AMD (jolla ei oikeastaan omaa olekkaan, vaan luottaa avoimiin)?
36.

Lainaus:
Alkuperäinen kirjoittaja AVTuunaajaNäytä viesti


Isoin jäljelle jäävä kysymys on, riittääkö Anandtechin raportoima 40 wavefronttia pitämään yksiköt töissä? Jos laskentayksiköt ovat vieläkin 4 syklin barrel-prosessoreja, laite tarvii vähintään 16 pitämään yksiköt töissä edes parhaassa mahdollisella kuormalla. Jokainen muistireferenssi jota ei palvella cachesta ottaa wavefrontin pois ~100 sykliksi, miten 40 voi riittää?

Nykyisissä GPU:ssa on ajossa yhtäaikaa kymmeniä tuhansia säikeitä, jokaisen shaderin front-end niputtaa niitä AMD:n nykykielellä "wavefronteiksi" eli SIMD-nipuiksi, kyse ei todellakaan ole siitä että prosessori jumittaisi muistihakujen kanssa pitkiksi ajoiksi vaan gpu pystyy valtavan säikeiden/rekisterimääränsä kanssa vekslaamaan hirveän määrän mahdollisten ajettavien säikeiden kanssa, tuo 4 valmista ajetttavaa pakettia per SIMD vaan on jonkinlainen sweet-spot tehokkuuden kanssa koska nVidian tuotoksissa esiintyy samat arvot.

Ja nyt päästään kilpailijan puolelle, eli nVidian vastaavasti toteutettu scheludointi pääsee todella hyviin hyötysuhdearvoihin melkein kuormalla kuin kuormalla eli mitään huolta systeemin hyvyydestä ei ole, sen sijaan AMD:n nykyinen malli on tökkinyt suhteellisen paljon, eli hyötysuhden on melkein kuormalla kuin kuormalla ollut heikohko.

37.

Lainaus:
Alkuperäinen kirjoittaja oolaspalmasNäytä viesti

AnandTech - AMD's Graphics Core Next Preview: AMD's New GPU, Architected For Compute

Anandtechiltä tullut artikkeli tuosta uudesta arkkitehtuurista jos jotain kiinnostaa.

Kivasti teknistä tietoa mutta kaikki ei ole niin virheetöntä, käpyjä siellä täällä kuten Anandilla on ollut useasti tapana, esim AMD:n vliw-arkkitehtuurin paketin ajo neljässä kellojaksossa vaikuttaisi aika oleellisesti teoreettiseen laskentatehoon ja mainostettuihin alujen määrän(4x) eli pientä skeptisyyttä tekstin lukuun mukaan.

38.

Lainaus:
Alkuperäinen kirjoittaja Sami RiitaojaNäytä viesti

Kivasti teknistä tietoa mutta kaikki ei ole niin virheetöntä, käpyjä siellä täällä kuten Anandilla on ollut useasti tapana, esim AMD:n vliw-arkkitehtuurin paketin ajo neljässä kellojaksossa vaikuttaisi aika oleellisesti teoreettiseen laskentatehoon ja mainostettuihin alujen määrän(4x) eli pientä skeptisyyttä tekstin lukuun mukaan.

AMDn nykysissä aluissa on neljän syklin pituinen liukuhihna. Yksittäisen tuloksen ulos saamiseksi tarvii odottaa neljä sykliä, mutta joka sykli valmistuu uusi tulos. Tämä latenssi peitetään ajamalla muita säikeitä siinä välissä. Ohjelmoijalle tämä käytännössä tarkoittaa että laitteessa on neljä kertaa enemmän "ytimiä", jotka ovat neljä kertaa hitaampia. Tämä on hyvin dokumentoitu aika lailla jokaisessa syvällisessä katsauksessa Evergreenin sielunelämään.


Lainaus:

Nykyisissä GPU:ssa on ajossa yhtäaikaa kymmeniä tuhansia säikeitä, jokaisen shaderin front-end niputtaa niitä AMD:n nykykielellä "wavefronteiksi" eli SIMD-nipuiksi, kyse ei todellakaan ole siitä että prosessori jumittaisi muistihakujen kanssa pitkiksi ajoiksi vaan gpu pystyy valtavan säikeiden/rekisterimääränsä kanssa vekslaamaan hirveän määrän mahdollisten ajettavien säikeiden kanssa, tuo 4 valmista ajetttavaa pakettia per SIMD vaan on jonkinlainen sweet-spot tehokkuuden kanssa koska nVidian tuotoksissa esiintyy samat arvot.

Mutta tässä uudessa mallissa jokainen compute unit voi pyörittää vain 40 wavefronttia yhtä aikaa, ja kun joku niistä stallaa muistia, se korvaava työ pitää löytää niistä 40:stä. Erona ennen compute uniteissa mikään ei voinut stallata -- kääntäjä jakoi koodin erillisiin "clauseihin" jotka eivät voineet sisältää käskyjä jotka riippuivat saman clausen sisällä olleen muistihaun tuloksista, ja muistihauista riippuvaiset clauset scheduloitiin suoritettavaksi vasta kun kaikki riippuvuudet olivat valmiita.

Nyt muistioperaatiot ovat koodin sisällä, ja scheduloinnista vastaa se CU. 40 on erityisen pieni luku, jos olettaa että niillä uusilla stream prossuilla kestää myös 4 sykliä valmistaa FMA, koska silloin laite tarvii aina 16 wavefronttia pyöriäkseen täysillä vaikka mikään ei stallaa muistia. Ja yksi hipaisu GPU:n muistiin = yksi niistä 40:stä wavefrontista stallaa satoja syklejä.

39.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti

Mitä tarkalleen tarkoitat tuolla? APP SDK (ex-STREAM) on ainakin OpenCL:n suhteen täysin ajantasalla

En nyt ole 100% varma asiasta, mutta ainakin hajautetun laskennan projekti gpugrid.net on yrittänyt tehdä AMD:n APP SDK alustalla toimivaa sovellusta parin vuoden ajan saaden aikaiseksi pelkän (heidän sanojensa mukaan) hitaan ja bugisen ohjelman jota eivät ole laittaneet jakoon kehnon toimivuuden vuoksi.

40.

Lainaus:
Alkuperäinen kirjoittaja tysonNäytä viesti

En nyt ole 100% varma asiasta, mutta ainakin hajautetun laskennan projekti gpugrid.net on yrittänyt tehdä AMD:n APP SDK alustalla toimivaa sovellusta parin vuoden ajan saaden aikaiseksi pelkän (heidän sanojensa mukaan) hitaan ja bugisen ohjelman jota eivät ole laittaneet jakoon kehnon toimivuuden vuoksi.



Ottaen huomioon että moni väänsi myös vanhalla Sreamilla ihan toimivia (ja nopeitakin) softia niin paha sanoa onko vika ollut SDKssa, vai kenties gpugridissä, ehkä he eivät ymmärtäneet jotain oiken tms, paha sanoa
41.

Lainaus:
Alkuperäinen kirjoittaja tysonNäytä viesti

En nyt ole 100% varma asiasta, mutta ainakin hajautetun laskennan projekti gpugrid.net on yrittänyt tehdä AMD:n APP SDK alustalla toimivaa sovellusta parin vuoden ajan saaden aikaiseksi pelkän (heidän sanojensa mukaan) hitaan ja bugisen ohjelman jota eivät ole laittaneet jakoon kehnon toimivuuden vuoksi.



Jos en väärin muista, niin ongelmiin taisivat törmätä myös octanerenderin tekijät..
42.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti

Tuleva muutos on parempi kaikkeen muuhun laskentaan varmasti, mutta grafiikkaan se ei välttämättä ole parempi



Kuulostaapa lupaavalta ominaisuudelta näytönohjaimessa.
43.

Lainaus:
Alkuperäinen kirjoittaja TyhmäNäytä viesti

Kuulostaapa lupaavalta ominaisuudelta näytönohjaimessa.



En sanonut että se olisi huonompikaan ;)
Mutta pointtina oli että samoilla transistoribudjeteilla on mahdollista että VLIWissä pysyminen saisi aikaan nopeampia piirejä kun puhutaan vain peligrafiikoista, mutta nykypäivänä se on vain osa näytönohjaimen tehtävistä ja koska transistoribudjetti kasvaa, on näyttis kuitenkin selkeästi nopeampi kuin mikään nykyinen piiri.
44.
Ehkä kyse ei ole *vain* GPGPU-parannuksista? Rinnakkaisuuden kasvattamisessa tulee melkein aina raja vastaan, ehkä myös peligrafiikoissa? Voi olla, että vanhantyylisillä heikon käytännön hyötysuhteen piireillä on tulossa tai tullut jo jokin pullonkaula vastaan.

Jotenkin kuitenkin tuntuu, että kyse on AMD:n kohdalla muutoksen ajoituksesta gate first->gate last-tyyppisen heilumisen sijasta - nVidia tekee arkkitehtuurimuutoksen 40 nm kohdalla koska katsoo sen oikeaksi hetkeksi, AMD 28? nm:n kohdalla. Nykykorteilla eri arkkitehtuurit ovat yllättävänkin samantasoisia...

45.

Lainaus:
Alkuperäinen kirjoittaja mustajokiNäytä viesti

Ehkä kyse ei ole *vain* GPGPU-parannuksista? Rinnakkaisuuden kasvattamisessa tulee melkein aina raja vastaan, ehkä myös peligrafiikoissa? Voi olla, että vanhantyylisillä heikon käytännön hyötysuhteen piireillä on tulossa tai tullut jo jokin pullonkaula vastaan.


Päin vastoin, uusi malli tarvii enemmän rinnakkaisuutta ruokkimaan yksiköitä. Aiemmin CU:ssa pyöri vain yksi wavefront (16 synkronoidusti pyörivän säikeen nippu), jonka piti löytää 5 tai 4 yhtäaikaista operaatiota pitääkseen yksiköt töissä. Uudessa mallissa taas pyörii 4 wavefronttia (64 säiettä), joista kaikista tehdään vain yksi operaatio. GCN tarvii noin 4 kertaa enemmän säikeitä kuin NI.

Ja grafiikassa on oikeasti aivan riittävästi rinnakkaisuutta jäljellä. Jokaiselle ruudun pikselille pyöräytetään pixel shader, yhtä aikaa. Overdraw huomioon ottaen, siinä on ~8 miljoonaa rinnakkain suoritettavaa operaatiota.


Lainaus:


Jotenkin kuitenkin tuntuu, että kyse on AMD:n kohdalla muutoksen ajoituksesta gate first->gate last-tyyppisen heilumisen sijasta - nVidia tekee arkkitehtuurimuutoksen 40 nm kohdalla koska katsoo sen oikeaksi hetkeksi, AMD 28? nm:n kohdalla. Nykykorteilla eri arkkitehtuurit ovat yllättävänkin samantasoisia...

Eivät kyllä ole. AMD saa samasta pii-pintaalasta huomattavasti enemmän eroa irti. Näin hyvin rinnakkaistuvilla kuormilla melkein millä tahansa arkkitehtuurilla saa tehokruunun jos on valmis maksamaan siitä korttien marginaaleissa.

Myynti/teho on ja tulee itsestäänselvistä syistä aina olemaan molempien valmistajien korteilla suunnilleen samaa luokkaa, paitsi jos toisella menee niin heikosti ettei kortteja yksinkertaisesti kannata tehdä, kuten NV:n GTX200 ja AMD:n HD2000. Niinpä ei kannata kovin paljoa hämmästellä että kahden eri arkkitehtuurin kortit ovat samoissa hintaluokissa samantasoisia.

46.
Hyvä, kumarran asiantuntijammalle. Mistään mitään ymmärtämättä vain spekuloin - yksittäisten pikselien sijasta ajattelin mahdolliseksi pullonkaulaksi muistikaistaa, tahi skeduleri(e)n työmäärää ja ennustamiskykyä, tai jotain geneeristä "insinöörien simuloinnissa havaitsemaa rajoitusta grafiikka-pipelinen toiminnassa". Käsien heiluttelua, ei kannata ottaa liian vakavasti :)

Korttien samantasoisuuden vertailussa hintaluokan tai pii-pinta-alan sijasta ajattelin eilen illalla lähinnä saman teholuokan korttien virrankulutusta - AMD:lla ei kuitenkaan ole mitään dramaattista etumatkaa tässä suhteessa. Taloudellinen etumatka varmasti on tällä hetkellä valmistuskustannuksissa. Mutta tämä virrankulutustasapaino oli yksi syy miksi aloin pohtia peligrafiikka-pullonkauloja AMD:n tämänhetkisissä korteissa.

47.
Edelleen yksi sana "rinnakkaisuus" ei riitä kuvaamaan tilannetta tarpeeksi.

ATIn nyky/vanhan sukupolven malli tarvii koodilta sekä käsky- että säietason rinnakkaisuutta päästäkseen "täyteen suorituskykyynsä"; Säikeitä pitää olla paljon, ja yhden säikeen sisällä olevien käskyen välillä pitää olla rinnakkaisuutta

Nvidian piirit tarvivat koodilta (vielä hiukan enemmän) säietason rinnakkaisuutta, mutta eivät käskytason rinnakkaisuutta.

ATIn seuraavan sukupolven arkkitehtuuri tarvii koodilta/laskettavalta asialta sekä säietason että datatason rinnakkaisuutta, mutta ei käskytason rinnakkaisuutta.


Rinnakaisuuksien suhteesta toisiinsa:

Datatason rinnakkaisuus voidaan aina muuttaa käskytason rinnakkaisuudeksi, tosin rekistereitä kuluu paljon. (ja ATIn GPUisa niitä on paljon, ei ongelmaa)

Datatason rinnakkaisuus voidaan myös muuttaa säietason rinnakkaisuudeksi, mutta tämä on yleensä kannattavaa vain kun dataa on enemmän, koska säikeistä tulee aina overheadia. (tosin GPUilla nimenomaan tämä overhead on pyritty monimoimaan)

Säietason rinnakkaisuutta voidaan rajoitetusti muuttaa käsky- tai datatason rinnakkaisuudeksi, mutta tämä toimii hyvin vain koodilla, jossa haarautumisia on melko vähän/kontrollivuo on yksinkertainen (kaikki haarautumiset voidaan if-convertoida predikoiduiksi käskyiksi). Monimutkaisemmat haarautumiset aiheuttavat helposti eksponentiaalisen räjähdyksen koodin koossa, ja suorituskyvyn huononemisen, toisaalta nämä monimutkaisemmat koodirakenteet käyvät yhtä lailla hitaiksi myös SPMD-prossuilla(nyky-GPU) jotka ajavat montaa säiettä (mutta ilman koodin koon räjähdystä)

48.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti

En sanonut että se olisi huonompikaan ;)
Mutta pointtina oli että samoilla transistoribudjeteilla on mahdollista että VLIWissä pysyminen saisi aikaan nopeampia piirejä kun puhutaan vain peligrafiikoista, mutta nykypäivänä se on vain osa näytönohjaimen tehtävistä ja koska transistoribudjetti kasvaa, on näyttis kuitenkin selkeästi nopeampi kuin mikään nykyinen piiri.

Toki saadaan AMD:n VLIW-ratkaisulla enemmän teoreettista shaderitehoa samalla transistoribudjetilla kuin ei-vliw ratkaisulla, mutta VLIW:n ongelma on että käskyrinnakkaisuus eli ne VLIW-paketit ovat kääntäjän tekemiä eivät itse prosessorin logiikan. Kääntäjän tekemän paketin vika taas on että kääntäjä ei itsessään tiedä mitä dynaamisessa koodissa tapahtuu eli kääntäjän paketoimat VLIW-käskypaketit voidaan joutua ajettaessa purkamaan, eli vaikkapa VLIW5-prosessorin shaderiteho voi yllättäen laskea 1/5 teoreettisesta. Kääntäjän koodia voidaan viilata paremmaksi vain ajamalla koodia ja tekemällä kääntäjän muutokset feedbackin perusteella, mutta ajettavan datan ollessa dynaamista kaikki ei kuitenkaan ikinä voi mennä ideaalilla tavalla.

AMD:n vliw-shadereiden ongelma on että ajettavat paketit joudutaan joissain tilanteissa purkamaan ja peleissä tilanne näkyy nohtkahduksina fps:ssä kun shaderiteho vaihtelee koodin mukaan jatkuvasti, muuttamalla prosessorin front-end kuten nyt tehdään shaderiprosessori voi itse rautatasolla vaikuttaa paljon enemmän dynaamisen koodin ajettavuuteen ja pitää shaderiprosessoin laskentatehon paljon vakaampana.

Lisäksi AMD:llä on nyt hirveä tilanne ajuritiimillä, koodin optimointi VLIW-arkkitehtuurille on aina työlästä ja tällähetkellä se joudutaan vielä tekemään kahdelle erilaiselle arkkitehtuurille, melkein tahtoisi sanoa että VLIW4-vaihe olisi kannattanut suosilla jättää välistä pois, toistaikseksi VLIW5-piirit ovat aivan kilpailukykyisiä ja jos tulevaisuudessa kuitenkin siirrytään VLIW:stä pois niin yhden ylimääräisen arkkitehtuurin esittely oli lähinnä vain typerää.

49.
Luultavimmin VLIW4:aa piti tulla kaksi kokonaista sukupolvea, NI ja SI, mutta NI-puolelle vain Cayman tuli sellaisenaan 32nm suunnitelmista, muiden tullessa Evergreenistä paranneltuina kun 32nm peruttiin (ainakin Barts on varmistettu tapaus).

Samalla kun NI myöhästyi aiotusta 32nm peruuntumisen ja sitten 40nm prosessille kääntämisen / osan piireistä uudelleensuunnittelun myötä, heitettiin kenties se minkä piti olla SI roskiin ja hypättiin suoraan GCN:aan kun ymmärrettiin että se on mahdollista saattaa valmiiksi ennen 28nm:n valmistumista massatuotantokuntoon
50.

Lainaus:
Alkuperäinen kirjoittaja KaotikaNäytä viesti

Luultavimmin VLIW4:aa piti tulla kaksi kokonaista sukupolvea, NI ja SI, mutta NI-puolelle vain Cayman tuli sellaisenaan 32nm suunnitelmista, muiden tullessa Evergreenistä paranneltuina kun 32nm peruttiin (ainakin Barts on varmistettu tapaus).

Samalla kun NI myöhästyi aiotusta 32nm peruuntumisen ja sitten 40nm prosessille kääntämisen / osan piireistä uudelleensuunnittelun myötä, heitettiin kenties se minkä piti olla SI roskiin ja hypättiin suoraan GCN:aan kun ymmärrettiin että se on mahdollista saattaa valmiiksi ennen 28nm:n valmistumista massatuotantokuntoon

No AMD:n suunta grafiikkapiirien suunnittelussa on ollut vähän hukassa, eli VLIW4 suunniteltaessa on vielä selvästi luotettu valittuun arkkihtehtuuriin ja vain korjailtu sitä hyötysuhteltaan paremmaksi, välissä vain nVidia ehti puskea Fermin ulos ja AMD:n hemmoillekin selvisi että grafiikkapiireillä ei ole kuin yksi kehityssuunta, ts AMD kopioi Fermin arkkihtehtuurin omiin piireihinsä......

Näkyvissä kommentit 1-50. Yhteensä 2024 kommenttia.

Takaisin ylös