AtoZ asiaa

AI Act muuttaa liikkuvien työkoneiden kehitystä – Onko ohjelmistotestaus ajan tasalla?

Kirjoittanut Santtu Koistinen | Dec 15, 2025 8:20:35 AM

EU:n tekoälyasetus (AI Act) astui voimaan elokuussa 2024 ja sitä otetaan vaiheittain käyttöön vuoteen 2026 mennessä. Moni mieltää sen koskevan vain ChatGPT:n kaltaisia chatbotteja, mutta sen vaikutus osuukin myös teollisuuteen ja liikkuviin työkoneisiin. 

Kun metsäkoneet, traktorit ja kaivosporalaitteet muuttuvat älykkäämmiksi, myös niiden ohjelmistotestauksen on muuttuttava vastaamaan uutta todellisuutta. Automaatioaste kasvaa ja koneet tekevät yhä itsenäisempiä päätöksiä. Samaan aikaan sääntely kiristyy: uusi koneasetus (EU 2023/1230) ja AI Act muodostavat yhdessä rajat, jotka edellyttävät tarkempaa turvallisuuden osoittamista. 

Miten AI Act ja Koneasetus täydentävät toisiaan? 

On tärkeää ymmärtää, ettei nämä kaksi ole erillisistä byrokraattista himmeliä, vaan liikkuvien työkoneiden kehityksessä ne muodostavat kokonaisuuden. 

  • AI Act määrittelee tekoälyjärjestelmien riskiluokat, datavaatimukset ja selitettävyyden, eli millaisissa rajoissa ”älyn” tulee toimia. 
  • Koneasetus (2023/1230) puolestaan ohjaa koneiden fyysistä turvallisuutta, CE-merkintää ja määrittää, milloin ohjelmisto luokitellaan turvakomponentiksi. 

Käytännössä siis voidaan jakaa, että AI Act ohjaa tekoälyn laatua ja toimintologiikkaa, kun taas Koneasetus määrittää koko koneen turvallisuuden ja valmistajan vastuut.  

Koneasetuksesta voi lukea lisää aiemmasta blogista: Uusi koneasetus kiristää ohjelmistotestauksen vaatimuksia.   

Mitä tämä käytännössä tarkoittaa ohjelmistokehitykselle ja laadunvarmistukselle? 

 

Kun koodista tulee turvakomponentti 

AI Act luokittelee tekoälyjärjestelmät riskin perusteella. Liikkuvien työkoneiden kohdalla päädytään käytännössä aina korkean riskin alueelle. 

Jos esimerkiksi konenäköjärjestelmä toimii turvakomponenttina, kuten esimerkiksi kameran avulla esteentunnistus, joka pysäyttää työkoneen ihmisen lähestyessä, sitä koskevat AI Actin tiukimmat vaatimukset. Ohjelmistolle tulee osoittaa: 

  • Riskienhallinta 
  • Datan laatu ja edustettavuus 
  • Ihmisen valvonnan toteuttaminen 
  • Robusti toiminta myös virhetilanteissa. 

Tämä vaikuttaa suoraan ohjelmistontestaamiseen. Emme testaa enää vain sitä, toimiiko tietty ominaisuus, vaan onko se turvallinen kaikissa mahdollisissa tilanteissa. 

  

Uusi vaatimuslistaus ohjelmistotestaukselle 

AI Act tuo mukanaan vaatimuksia, joita perinteinen "happy path" -testaus ei kata. Työkoneiden ohjelmistotestauksessa on huomioitava koneasetuksen sekä AI Actin mukaan nyt erityisesti seuraavat kolme osa-aluetta: 

  1. Datan laadun varmistus ja edustavuus:Tekoäly toimii vain niin hyvin kuin sen data, jolla se on koulutettu. Testaajien on varmistettava, ettei koulutusdata ole vääristynyttä.
  • Esimerkiksi: Tunnistaako työkoneen konenäkö esteen yhtä luotettavasti kirkkaassa auringonpaisteessa, lumisateessa ja pölyisellä työmaalla? Testausdatan on katettava koko operatiivinen ympäristö, ei vain täydelliseksi mallinnettuja testiolosuhteita. 

 

  1. Robustisuus ja virheensietokyky:AI Actin mukaan järjestelmän on oltava "kestävä virheitä, vikoja ja epäjohdonmukaisuuksia vastaan".
  • Esimerkiksi: Miten konenäkö reagoi, jos yksi sensori likaantuu tai antaa kohinaista dataa? Perinteinen ohjelmisto saattaa kaatua tai antaa virheilmoituksen, mutta tekoälypohjainen ohjausjärjestelmä ei saa tehdä vaarallista virhepäätöstä epätäydellisenkään tiedon varassa. Testaussuunnitelmaan on lisättävä testejä, joilla järjestelmää testataan tahallisesti poikkeavilla syötteillä. 

 

  1. Selitettävyys ja lokitus:Järjestlemän on kyettävä osoittamaan, miten ja miksi se on tehnyt yksittäisen päätöksen.
  • Käytännössä: Järjestelmän on logattava päätöksentekonsa tavalla, joka on ymmärrettävissä. Jos kone kääntyy vasemmalle, lokista on löydyttävä tieto siitä, minkä sensoridatan perusteella päätös tehtiin. 

 

Simulaatioiden rooli kasvaa 

Kaikkia vaaratilanteita ei voi eikä kannata testata oikealla työmaalla. Siksi simulaatiopohjainen testaus nousee merkittävään rooliin. Simulaatiossa voidaan ajaa paljon erilaisia skenaarioita, kuten erilaisia ääritilanteita joita oikealla laitteella ei välttämättä ole kannattavaa testata.  

TLDR: Vaatimustenmukaisuus on kilpailuetu 

AI Actia ei kannata nähdä vain taakkana. Se pakottaa nostamaan ohjelmistokehityksen ja testauksen laatustandardeja, ja herättää tarpeellista keskustelua. Turvallinen, hyvin testattu ja dokumentoitu työkone on luotettavampi loppuasiakkaalle ja näin rakentaa valmistajan mainetta turvallisten työkoneiden kehittäjänä. 

  

Lisätietoa AI Actista ja 2023/1230 koneasetuksesta: 

https://artificialintelligenceact.eu/ 

https://eur-lex.europa.eu/eli/reg/2023/1230/oj/eng