Will machines take our work? – Part 3: People as models for machines

How do artificial and human intelligence differ? Why does research of the subconscious matter when dividing work between robots and humans? Should VTT build autonomous super AI?

Rick Deckard, the main character in the film, Bladerunner, kills replicants – machines that resemble humans – for a living. However, by the end of the film, Deckard, who is played by Harrison Ford, falls in love with a replicant. Deckard’s ambivalence towards replicants reflects the current debate about artificial intelligence. Some predict huge changes and see super AI plotting to take control, in a very human manner. Others are  more unconvinced: ‘Replicants are like any other machine,’ said Deckard as well, before he changed his mind. Machines modelled on people is therefore a classic science fiction idea. I want to enter the debate by comparing human and artificial intelligence. I discuss the argument that it is difficult to copy human intelligence in machines, because our intelligence cannot be separated from its environment. In addition, I would claim that analysis of human activity would be useful when remodelling working life.

Human intelligence

Conscious language-based thinking (inner conversations) is just the tip of the human intelligence iceberg. When an expert is asked how they managed to solve a problem or conflicting situation, they often answer that they ‘just knew’. Human expertise is a combination of schooling and book learning, personal conscious thinking, and something based on learning by doing. A knack and feeling for something, an expert eye and ear, and vision are popular ways of describing the tacit knowledge and ‘feel’ we have for performing various tasks. A person works intuitively and adaptively, selectively using millions or perhaps billions of sensory cells, depending on the situation.

It could be argued that intelligence and knowledge are located in the connections between the brain and countless sensory cells and nerves, rather than simply in the brain. Experimental psychology has shown that, in many respects, human activity and decision-making are directly connected to the environment. Action does not therefore require conscious thinking. The idea that our thought processes are embedded in our experienced environment is logical, since cerebral intelligence is connected to the sensory cells, which are themselves in direct contact with the environment.

In addition to having bodily intelligence, people are able to interpret and learn meanings. We excel at this in comparison to other species, due to the way in which our ancestors gathered food. Over short distances, humans are often outpaced by their prey, but we can jog for extremely long distances. Game therefore had to be followed over a very long journey. This was done by following tracks. We interpreted signs imprinted in the environment in order to survive – reading is species-typical behaviour for us. Now also people read continuously; some read their mobile phones, while others read newspapers. Because our senses are relatively dull, we cannot identify poisonous plants and fungi from the edibles just by smell, but by learning to distinguish the good from the bad. That is why adults are also generally able to distinguish good from bad, in other words we have a moral conscience. It is highly apt that Adam and Eve ate from the tree of knowledge, of good and evil, in the Book of Genesis. Conscious thinking was essential in the everyday lives of hunter-gatherers. People paid a price for stupidity even then – our intelligence and consciousness are by-products of evolution.

Artificial intelligence

Artificial Intelligence makes predictions on the basis of data and follows written instructions. Its predictive capabilities are based on neural networking in particular.  Neural networks consist of mathematically interconnected nodes, i.e., neurons. Initially, the connections are typically random, but they are then strengthened and weakened through trial and error. For example, thousands of images, categorised in a manner meaningful to people, can be fed into a neural network: ‘woman’, ‘man’, ‘cat’, ‘dog’, etc. By grouping certain features, the neural network can guess what each image contains. The right answers reinforce the pathways between network nodes that lead to the right answers. Pathways that lead to the wrong answers are weakened. This ‘guessing machine’ becomes an effective predictor after hundreds of thousands of tries. Prediction is ultimately so certain that artificial intelligence can identify images or words from a soundtrack.

Many kinds of human activity can be performed through prediction and by following instructions. We may wonder, for example, whether artificial intelligence is capable of creative tasks. AI can be made to compose musical pieces: it can analyse the melodies of the most popular compositions and predict the most catchy ones on that basis. With very careful preparation, it could also stretch to writing some lyrics and instrumentation. But music is more than sounds: young people have a tendency to develop their own, original vibes and grooves, which irritate their elders. AI cannot truly create new musical genres that reflect the times that the listeners are living through. Music cannot be separated from dance styles and the issues we consider important. And which is the creative actor here – artificial intelligence or the software developer?

Artificial general intelligence (or AGI) refers to AI capable of design, adaptation, reasoning and linguistic communication in a similar manner to humans. Definitions and proposed criteria for AGI tend to vary.  A machine succeeding in making coffee in a strange flat could be a sign that we are in the presence of AGI. In the scientific community, there is no consensus on whether AGI is even possible in principle. Both Microsoft and Google are running research programmes to achieve AGI. This is understandable, because sceptics rarely find their way into top positions in American blue chip companies. These programmes will undoubtedly lead to commercially exploitable technologies, even if they do not actually achieve AGI itself.

Cognitive architecture and task analysis

In principle, to build a truly human robot, we need to analyse people themselves. Cognitive scientists use the concept of cognitive architecture to describe human thinking holistically, including feelings and other matters. Because people are so fiendishly complex, it seems to me that the study of general cognitive architecture is better suited to basic research of artificial intelligence than the development of AI in practice.

Technology companies can meet their needs through task analysis. When replacing an employee with robots, we need to analyse what kind of work people are doing. This will ensure that the new robotised approach provides a result of at least the same quality and safety as the traditional way of operating. Since people will always be needed, even based on the new operating model, a division of labour between people and robots will be designed. Task analysis could also indicate that there is no point in robotisation.

There are many forms of task analysis. Cognitive task analysis involves modelling an employee’s thinking. Dozens of tools are available for this. Task analysis can also analyse an employee’s movements or the features of a work organisation. In particular, VTT uses the core task analysis method developed by now-retired research professor Leena Norros. The idea is to contrast observed working practices and challenges with the general goals and critical phases of work. The personal characteristics of employees are secondary: as ‘core’ suggests, this concerns the analysis of a task’s core features. Bearing the main goals in mind enables us to view a task’s performance from a number of perspectives – the same general goal can be achieved by human action or a robot. This makes core task analysis ideal as a design aid: it guides but does not cramp the designer’s creativity. Depending on the research questions, core task analysis can flexibly include various features of cognitive task analysis, the micro-level analysis of work practices, or the modelling of the operating environment.

It is beneficial to blur the boundary between worker and researcher when mapping cognitive processes during task analysis. Workers are seldom aware of their own mental models while working, because skills are subconscious in nature and the subconscious cannot be directly studied by transferring information from the employee to a researcher. The idea is that the researcher and worker together explore issues hidden in the subconscious, which means that the employee, in a sense, becomes both ‘teacher’ and ‘pupil’ at the same time. Workers love task analysis of this kind, because they find insights about their own work fascinating by nature. A good, practical technique for this involves watching a video of the worker in action, together with him or her.

User-centred AI research

Human and artificial intelligence are different. Even an accurate study of people will not enable us to create actors that precisely resemble humans. The quantum computers of the future may be millions of times faster than today’s computers. However, this does not alter the fact that, in the future, artificial intelligence will not be able to function adaptively in the real world as people do. In the absence of new developments, we would still fail to achieve seamless interaction between the complex whole of the sensory system and decision-making. As concepts, neural networks and artificial intelligence hint at the replication of human intelligence. However, in practice it would make more sense to study the use of AI.

Without research, it is hard to figure out how different work assignments may benefit from data-based predictions. Through object-recognition capabilities, AI will solve problems in a number of job tasks, because camera technology is already used for other purposes in many sectors. Surgeons, for example, often use a camera image when operating: in the future, AI may help to identify cancer cells and nerve paths. It is to be explored how work-life focused user research could provide practical tools for the building of neural networks. Interdisciplinary work is necessary.

Mikael Wahlström
Senior Scientist, PhD in Social Sciences (Social Psychology)


The author is exploring the division of labour between AI and people in a project that explores the future of seafaring. He has performed task analysis blurring the boundaries between worker and researcher in Academy of Finland project called WOBLE, which he led, focusing on robot-assisted surgery. The final report of the WOBLE project in Finnish can be found here.

Will machines take our work? – Part 2: Robot trucker at the mercy of people


Autonomous transport is on the way. Ships and cars are being fitted out to drive themselves. But is there a business in this, or will the hype fizzle out? Will people accept these machines?

Robots are always connected to people. Even a Mars rover’s tasks are planned each day by people. In this blog, I’m going to consider the relationship between people and autonomous vehicles on three interrelated levels: physical, commercial and social. Devices must work where intended, must be sellable, and must be acceptable to people.

When such devices are being used, the nature of the operating environment and the connection to people are as important as technical features.  For example, robot vehicles already perform commercial tasks well, but within the enclosed environments of mining areas. People only venture into the vicinity of these giant robot trucks if they are sitting in a truck cabin themselves.

Money and safety at sea

Safety critical work is work in which human life would be endangered if something went wrong. Such work is generally governed by rules. Areas such as seafaring and motoring have their own sets of rules. Accidents are avoided if all parties comply with the rules and nothing surprising happens. Artificial intelligence complies with the rules set for it, but cannot adapt to unforeseen circumstances. In addition, a fault or accident may originate in AI itself. That is why control of autonomous transport devices operating among humans should not be left to AI alone. Human supervision is needed.

Labour is saved when one person can supervise several devices that are under the direct control of artificial intelligence. Employees no longer need to be at the mercy of field conditions, but work is done in the comfort and safety of a control centre. Such work does, however, involve new challenges. The scientific community has only recently begun to discuss the so-called transparency of artificial intelligence, i.e how easy it is for users to monitor the operations and functionality of AI. The supervision of self-learning AI – which can modify its own instructions – is particularly challenging. At the same time, there is a need to monitor and understand the operating environment of devices controlled by AI and the operation of sensor and communication technologies. Sensors of various kinds should be used to monitor activities in case some sensors do not work, or the signal is interrupted. For example, reliance on a GPS signal alone is unwise, since an external operator can disrupt positioning by generating a signal stronger than your own satellite signal.

The big challenge lies in the fact that operations must be economically viable in comparison to the traditional approach. For savings to be made, paying a control room team must be clearly cheaper than the wages of traditional field employees, since AI-controlled devices need new kinds of sensors and communication tools in order to function. More and more equipment is vulnerable to malfunctions and can no longer be serviced or repaired on-site, but a technical expert must be sent into the field.  Personnel costs currently account for around six percent of a ship’s operating costs, but costs are also generated by the infrastructure required by people: an autonomous vessel does not require a toilet or kitchen.

Regardless of the challenges, both businesses and innovations will be created

There is still no certainty about which systems are most cost-effective when controlling ships, whether such systems are based in remote centres or on-deck. Seafaring is a conservative sector: attitudes to autonomous ships range from enthusiasm to scepticism. I believe that autonomous technologies will be useful. Even if commercially viable, unmanned ocean-going vessels are some way off, seafarers will soon benefit in various ways from sensor technologies and AI.  Remote monitoring of ships is already happening.

For example, is it always necessary to maintain a 24-hour watch on the high seas? Fatigue, boredom and frustration all undermine safety. Perhaps it would be better if AI and the bridge kept watch at night, waking up the crew member on watch only if necessary. In addition, in challenging conditions new tools provide strong assistance in gaining situational awareness.

Change is slow to arrive. Good task planning, in which workers must be involved, is needed.  They can provide information on challenges in the operating environment, which must be taken into account in the design of automated equipment.

Metro, automation and strong emotions: should we be afraid of fear itself?

My favourite transport system is the Metro in Paris. It connects people to every part of the metropolis within 45 minutes. Intuitive maps clearly show where you are going when walking in the platform area. When I lived in Paris, Line 14 was the only unmanned metro line. Somewhat unexpectedly, stepping into the carriage made me feel anxious. This feeling faded quickly, when the train lurched into motion. Among so many passengers, even subconsciously I understood that there was nothing to fear.

Later, I used the theoretical framework I had studied in Paris to study what local residents in Helsinki thought about a driverless metro. The theory states that people’s shared understanding of the world develops as they discuss new phenomena; the discussion in question is affected by existing structures of power and meanings in society. French social psychological theory builds a bridge between society and human understanding.  I noted that people in Helsinki had negative attitudes towards the driverless metro, despite the media’s positive discussion of the issue. On the other hand, this negativism was reduced by facts about the automated metro. The idea of an automated metro was associated with experiences of unreliable computers, unemployment and dystopic images from science fiction.

My study of automatic metros provided the ideal basis or theoretical exploration, but was of little practical relevance. Helsinki never obtained a driverless metro and I now believe that preconceived ideas have limited influence on technology acceptance. People’s opinions are ultimately formed through direct use of the tool in question. This is demonstrated by my own experiences of line 14 of the Paris metro and the statistics: user experiences can be highly positive, even in the face of prejudices against robot technology.

So if the devices themselves are good, we shouldn’t worry too much about people’s preconceived ideas. However, fear should be dispelled through communications. If fear of the unknown is combined with problems or accidents, disproportionate damage may be done to the reputation of technology.

Automation and those being automated

I also think that technology firms do not need to be too worried about their workers, who, in principle, are the ones threatened by automation. The Finnish Seafarers’ Union is sceptical about autonomous ships in the same way as the metro drivers’ trade union was about the driverless metro. Despite this, the drivers were very open-minded about metro automation, at least when talking to an external researcher. There was no sign of a ‘rebellion’. On the other hand, the drivers were promised that they wouldn’t lose their jobs, but that their duties would change. In addition, perhaps the old drivers saw retirement approaching, while the younger ones were fascinated by involvement in a technological transition.


Mikael Wahlström
Senior Scientist, VTT


The writer studied the safety of autonomous ships as part of the AAWA project. A report of the safety analysis project completed alongside Aalto University is available here. The study on public opinion concerning Helsinki’s automated metro can be found here.

The first part of this three-part blog series discussed health care.
The last part, which will be published in February, will consider Human as a model for machines.


Viekö koneet työt? – Osa 3: Ihminen koneen mallina

Miten tekoäly ja ihmisen älykkyys eroavat toisistaan? Miksi alitajunnan tutkimuksella on väliä, kun suunnitellaan robotin ja ihmisen työnjakoa? Pitäisikö VTT:n rakentaa itsenäisesti toimivaa supertekoälyä?

Bladerunner-elokuvan päähahmona hääräävä Rick Deckard lahtaa työkseen ihmisiä muistuttavia koneita eli replicantteja. Elokuvan lopuksi Harrison Fordin tähdittämä Deckard kuitenkin rakastuu replicanttiin. Deckardin jakomielinen suhtautuminen replicantteihin kuvastaa tämän päivän keskustelua tekoälystä. Toiset maalailevat suuria muutoksia ja peräti uskovat ihmismäisesti juonittelevan supertekoälyn ottavan meistä vallan. Toppuuttelijoitakin on: ”Replicants are like any other machine”, toteaa myös Deckard ennen ajattelutapansa muutosta. Ihminen koneen mallina on siis vanhasta scifistä tuttu klassinen ajatus. Tuon tähän keskusteluun sisältöä vertaamalla ihmisälyä ja tekoälyä. Valotan sitä ajatusta, että ihmisen älyn kopioiminen koneen käyttöön on hankalaa, koska ihmisen älykkyys ei ole ympäristöstä irrallista. Lisäksi väitän, että ihmisen toiminnan analyysi on hyödyllistä työtä uudistavassa suunnittelutyössä.


Tietoinen erityisesti kieleen perustuva ajattelu eli pään sisäinen keskustelu on vain ihmisen älyn jäävuorenhuippu. Kun ammattiosaajalta kysyy, miten hän tietää, kuinka jokin ongelma tai ristiriitainen asia ratkaistaan, tämä usein vastaa kutakuinkin, että ”sen vain tietää”. Ihmisen osaaminen on yhdistelmä kirjatietoa, tietoista omaa miettimistä sekä sitä jotain, jonka oppii vasta tekemällä. Näppi- ja perstuntuma, ammattilaisen silmä ja korva sekä näkemys ovat kansanomaisia tapoja kuvata eri työtehtävien hiljaista ja kehollista osaamista. Ihminen toimii intuitiivisesti ja joustavasti, sillä se hyödyntää miljoonia tai kukaties biljoonia aistisolujaan valikoivasti tilanteen mukaan.

Voidaankin väittää, että älykkyys ja tietoisuus eivät oikeastaan sijaitse aivoissa, vaan aivojen ja liki lukemattomien aistisolujen ja -hermojen yhteydessä. Kokeellinen psykologia on osoittanut, että ihmisen toiminta ja päätöksenteko perustuvat monessa mielessä suoraan yhteyteen ympäristön kanssa. Toiminta ei siis vaadi tietoista ajattelua. Ajatus siitä, että ihmisen ajatustoiminta on suorassa yhteydessä elettyyn ympäristöön, on looginen, sillä aivojen älykkyys ei ole erillistä aistisoluista, ja aistisolut ovat suorassa yhteydessä elettyyn ympäristöön.

Kehollisen älykkyyden lisäksi ihmisellä on kyky lukea ja oppia merkityksiä. Tässä ihminen on erinomainen muihin eläimiin verrattuna. Selitys löytyy esi-isiemme tavasta hankkia ruokaa. Ihminen on lyhyellä matkalla yleensä riistaa hitaampi liikkumaan, mutta kykenemme erittäin pitkiin hölkkiin. Saalistettavaa eläintä piti siis seurata pitkä taivallus. Tämä onnistui jälkiä seuraamalla. Tulkitsimme ympäristöön painettuja merkityksiä selviytyäksemme eli lukeminen on meille lajityypillistä käyttäytymistä. Nykyäänkin ihminen lukee jatkuvasti – joku kännykkäänsä ja toinen sanomalehtiä. Aistimme ovat aika heikkoja, joten myrkkykasveja ja -sieniä ei eroteta syötävistä pelkällä nenätuntumalla vaan oppimalla erottamaan hyvä ja huonosta. Tästä syystä aikuisella ihmisellä on myös yleinen kyky erotella hyvä ja paha toisistaan eli eettinen omatunto. On osuvaa, että raamatun alkukertomuksessa Aatami ja Eeva syövät hyvän ja pahan tiedon puusta. Metsästäjä-keräilijän arjessa tietoinen ajattelu oli valttia. Tyhmyydestä sakotettiin jo silloin eli älykkyytemme ja tietoisuutemme ovat evoluution sivutuotteita.


Tekoäly tekee ennusteita datan perusteella ja noudattaa sille kirjoitettua ohjetta. Ennustamaan se oppii erityisesti neuroverkko-menetelmän avulla. Neuroverkko koostuu toisiinsa matemaattisesti kytköksissä olevista solmukohdista eli ns. neuroneista. Aluksi kytkökset ovat tyypillisesti sattumanvaraisia, mutta kokeilun kautta kytköksiin tehdään vahvennuksia ja heikonnuksia. Neuroverkkoon voidaan esimerkiksi syöttää tuhansia kuvia, jotka ihminen on luokitellut ihmiselle merkityksellisiin kategorioihin: ”nainen”, ”mies”, ”kissa”, ”koira”, jne. Ryhmittelemällä kuvan piirteitä neuroverkko arvailee, mitä kussakin kuvassa on. Oikeat vastaukset vahvistavat niitä verkon solmukohtien välisiä polkuja, jotka veivät oikeaan vastaukseen. Samalla väärään vastaukseen vieviä polkuja heikennetään. Satojentuhansien kokeilujen jälkeen arvauskone muuttuu tehokkaaksi ennustimeksi. Lopulta ennustaminen on niin varmaa, että tekoäly voi käytännössä tunnistaa kuvia tai sanoja ääniraidasta.

Ennustamalla ja käskyjä noudattamalla voi tehdä monenlaista ihmismäistä toimintaa. Voidaan miettiä vaikkapa, kykeneekö tekoäly luovaan työhön. Tekoäly saadaan luomaan musiikkia: se voi analysoida suosituimpien kappaleiden melodiakulut ja siltä pohjalta ennustaa ihmiskuulijaa koukuttavat sävelet. Jonkinlaiseen sanoittamiseen ja sovittamiseenkin se hyvin suunniteltuna pystynee. Mutta musiikki on muutakin kuin ääntä: nuorisolla on tapana kehitellä omanlaisensa ja oman nimisensä pörinät ja kilinät, mikä ärsyttää vanhempaa väestönosaa. Tekoäly ei oikein osaa luoda uutta musikaalista genreä, joka puhuttelee oman aikakautensa kuulijoita. Musiikki ei ole erillistä tanssityyleistä ja mieltä painavista aiheista. Ja kumpi tässä on se luova toimija: tekoäly itse vai ohjelmistokehittäjä?

Yleistekoälyllä tarkoitetaan tekoälyä, joka kykenee ihmismäiseen suunnitteluun, joustavuuteen, päättelyyn ja kielelliseen kommunikointiin. Yleistekoälyn määritelmät ja ehdotetut kriteerit vaihtelevat. Kahvin laittaminen ennalta vieraassa asunnossa on yksi tehtävä, jonka onnistuminen voisi olla merkki yleistekoälyn olemassaolosta. Tiedeyhteisö ei ole yksimielinen sen suhteen, onko yleistekoälyn rakentaminen ylipäänsä mahdollista. Sekä Microsoftilla että Googlella on yleistekoälyyn tähtäävät tutkimusohjelmat. Tämä on ymmärrettävää, koska epäilevillä tuomailla tuskin on sijaa amerikkalaissuuryritysten johtopaikoilla. Vaikka yleistekoälyä ei varsinaisesti saavutettaisi näissä tutkimusohjelmissa, niissä varmasti muodostuu muuta kaupallisesti hyödynnettävää teknologiaa.

Kognitiivisen arkkitehtuurin tutkimus ja tehtäväanalyysi

Jos halutaan rakentaa todella ihmismäinen robotti, pitäisi periaatteessa analysoida ihmistä itseään. Kognitiotieteilijät käyttävät kognitiivisen arkkitehtuurin käsitettä kuvastamaan ihmisen ajattelun kokonaisuutta tunteineen kaikkineen. Koska ihminen on pirullisen monimutkainen, kognitiivisen kokonaisarkkitehtuurin tutkimus soveltuu mielestäni paremmin akateemiseen perustutkimukseen tekoälystä kuin käytännön tekoälyn kehittämistyöhön.

Ratkaisuja teknologiayritysten tarpeisiin löytyy tehtäväanalyysin kautta. Kun halutaan korvata työntekijä robotilla, selvitetään, minkälaista työ on ihmisen suorittamana. Tällä varmistetaan se, että uusi robotisoitu tapa toimia tarjoaa vähintään yhtä laadukkaan ja turvallisen lopputuloksen kuin perinteinen toimintamalli. Ihmistä tarvitaan aina johonkin uudessakin toimintamallissa, joten käytännössä suunnitellaan robotin ja ihmisen välistä työnjakoa. Analyysin lopputuloksena voi myös olla, että robotisointi ei kannata.

Tehtäväanalyysin muotoja hyvin monia. Kognitiivisessa tehtäväanalyysissa selvitetään työntekijän ajattelua, ja analyysityökaluja tähän on kymmeniä. Tehtäväanalyysi voi selvittää myös esimerkiksi työntekijän liikeratoja tai työorganisaation piirteitä. VTT:llä käytetään eritoten entisen tutkimusprofessorin Leena Norroksen kehittämää perustehtäväanalyysia. Ajatuksena on suhteuttaa havaitut työtavat sekä haasteet työn yleisiin päämääriin ja kriittisiin vaiheisiin. Työntekijöiden henkilökohtaiset ominaisuudet ovat toissijaisia eli, nimensä mukaisesti, kyse on työtehtävän perustavanlaatuisten piirteiden analyysistä. Yleisten päämäärien mielessä pitäminen mahdollistaa sen, että työtehtävän suorittamista voi katsoa erilaisten toimintamallien näkökulmasta – samaan yleiseen päämäärään voidaan päästä robotin tai ihmisen toiminnalla. Tästä syystä perustehtäväanalyysi soveltuu hyvin suunnittelun apuvälineeksi: se ohjaa suunnittelijan luovuutta sitä liikaa rajaamatta. Perustehtäväanalyysiin voidaan sisällyttää kognitiivisen tehtäväanalyysin muotoja, työkäytäntöjen mikrotason erittelyä sekä toimintaympäristön mallintamista joustavasti riippuen tutkimuskysymyksistä.

Kognitiivisia asioita kartoittavassa tehtäväanalyysissa on hyvä hämärtää työntekijän ja tutkijan välistä raja-aitaa. Työntekijä ei useinkaan ole tietoinen omista ajattelumalleistaan työtä tehdessä, koska osaaminen on alitajunnassa. Alitajuntaa ei oikein voi tutkia suoraan siirtämällä tietoa työntekijältä tutkijalle. Lähtökohtana on, että tutkija ja työntekijä yhdessä oppivat alitajuntaan unohtuneista asioista, joten työntekijä ikään kuin muuttuu sekä oppijaksi että opettajaksi tutkimuksen aikana. Työntekijät ovat innoissaan, kun tehtäväanalyysia tehdään näin, koska oivalluksien tekeminen omasta työstä on äärimmäisen kiinnostavaa. Yksi hyvä käytännön tekniikka tähän on se, että katsotaan työntekijän kanssa yhdessä videokuvaa työntekijän työnteosta.

Käyttäjäkeskeinen tekoälytutkimus

Ihmisäly ja tekoäly ovat erilaisia, eikä edes ihmistä tutkimalla oikein voida luoda ihmisen kaltaista toimijaa. Tulevaisuuden kvanttitietokoneet saattavat olla satoja miljoonia kertoja nykytietokoneita nopeampia. Tämä ei kuitenkaan muuta sitä, että tulevaisuudessakaan tekoäly ei pysty toimimaan ihmisen tavoin joustavasti tosimaailmassa ­­– mm. monimutkaisen aistien kokonaisuuden ja päätöksenteon saumaton yhteispeli puuttuu myös tulevaisuudessa, jos jotain selkeästi uutta ei kehitetä. Neuroverkot ja tekoäly käsitteinä viittaavat ihmisen älyn replikointiin, mutta käytännössä on järkevämpää tutkia tekoälyn käyttöä.

Datapohjaisen ennustuskyvyn hyödyt työelämälle eivät tutkimatta selviä. Tekoälyn kohteentunnistuskyvyt tulevat ratkaisemaan ongelmia monilla aloilla, koska useilla aloilla muutenkin jo nyt käytetään kamerateknologiaa. Esimerkiksi kirurgit usein leikkaavat kamerakuvan perusteella: tulevaisuudessa tekoäly kenties auttaa tunnistamaan syöpäsolut ja hermoradat. Selvittelyn alainen asia on, miten työelämään kohdistuva käyttäjätutkimus voi tarjota käytännön apuvälineitä neuroverkkojen rakenteluun. Poikkitieteellistä tekemistä tarvitaan.

Mikael Wahlström
Erikoistutkija, valtiot. tohtori (sosiaalipsykologia)


Kirjoittaja työskentelee projektissa, jossa tutkitaan, miten tekoälyn ja ihmisen välinen työnjako järjestetään tulevaisuuden merenkäynnissä. Työntekijän ja tutkijan välistä raja-aitaa hämärtävää tehtäväanalyysia hän on tehnyt mm. vetämässään WOBLE-nimisessä Akatemia-projektissa, jossa tutkittiin robottikirurgien työtä. WOBLE-projektin suomenkielinen loppuraportti löytyy täältä.

Kolmiosaisen kirjoitussarjan ensimmäisessä osassa käsiteltiin terveydenhuoltoa.
Viimeisessä osassa, joka julkaistaan tammikuussa, käsitellään ihmistä koneen mallina.

Viekö koneet työt? – Osa 2: Robottirahtari ihmisen armoilla

Autonomiset kuljetusvälineet tekevät tuloaan. Laivat ja autot laitetaan kulkemaan itsekseen ilman kyyditsijää. Mutta tuleeko tästä businesstä vai kumiseeko haippi tyhjyyttä? Hyväksyvätkö ihmiset nämä laitteet?

Mis robotti käy, siit ihmisenkin löytää. Sananlasku on osuva, sillä robotilla on aina kytkös ihmiseen. Jopa Mars-mönkijän tehtävät suunnitellaan päivä kerrallaan ihmisen toimesta. Pohdin tässä kirjoituksessa autonomisen kuljetusvälineen ja ihmisen suhdetta kolmella toisiinsa kietoutuvalla tasolla, jotka ovat fyysinen, taloudellinen ja sosiaalinen. Laitteiden tulee toimia niille tarkoitetulla alueella, niitä pitää pystyä myymään, ja ihmisten tulee hyväksyä ne.

Autonomisen laitteen käytössä toimintaympäristön piirteet ja kytkös ihmiseen merkitsevät yhtä paljon kuin tekniset ominaisuudet. Esimerkiksi robottiautot tekevät jo nyt hyvää kaupallista työtä, mutta tämä tapahtuu kaivosalueiden suljetuissa ympäristöissä. Jättimäisten robottirekkojen kanssa samalle alueelle ei ihmisellä ole asiaa paitsi rekan kyydissä.

Raha ja turva merillä

Turvallisuuskriittinen työ on sellaista, jossa ihmishenki on vaarassa, mikäli asiat menevät pieleen. Näitä töitä yleensä ohjaavat säännöt. Esimerkiksi merenkäynnissä ja autoilussa on omat sääntönsä. Onnettomuuksilta vältytään, mikäli kaikki osapuolet noudattavat sääntöjä ja mitään yllättävää ei tapahdu. Tekoäly noudattaa sille asetettuja sääntöjä, mutta se ei ihmisen tavoin kykene joustavuuteen yllättävässä tilanteessa. Vika ja onnettomuuden lähde voi olla myös tekoälyssä itsessään. Siksi autonomista kuljetuslaitetta ei ole hyvä jättää pelkästään tekoälyn harteille, kun laite toimii ihmisten parissa. Tarvitaan siis ihmisen valvontaa.

Henkilöstösäästö saavutetaan siten, että yksi henkilö valvoo useampaa laitetta, jotka ovat tekoälyn välittömässä hallinnassa. Työntekijöiden ei tarvitse enää olla kentällä olosuhteiden armoilla vaan työ tehdään valvontakeskuksen mukavissa ja turvallisissa tiloissa. Työ tosin sisältää uusia haasteita. Tiedeyhteisö on vasta hiljattain alkanut puhua niin sanotusta tekoälyläpinäkyvyydestä eli siitä, miten helppoa tekoälyn toiminnan ja toimivuuden seuraaminen on käyttäjän näkökulmasta. Erityisen haastavaa on oppivan eli ohjeistoaan muokkaavan tekoälyn seuranta. Samalla pitää ymmärtää ja seurata myös tekoälyn ohjaamien laitteiden toimintaympäristöä sekä sensori- ja kommunikaatioteknologioiden toimintaa. Toimintaa on hyvä seurata erilaisilla sensoreilla siltä varalta, että jokin sensoreista ei toimi tai signaalia häiritään. Esimerkiksi pelkkään GPS-signaaliin ei ole hyvä turvautua jo siksi, että ulkopuolinen toimija voi hämätä paikannusta muodostamalla oman satelliittisignaalia vahvemman signaalin.

Suuri haaste on siinä, että toiminnan pitää olla taloudellisesti kannattavaa perinteiseen toimintamalliin verrattuna. Pitää olla selvästi halvempaa maksaa valvomotiimille kuin vanhalle kenttähenkilöstölle, jotta säästöjä kertyy, koska tekoälyn ohjaamat laitteet vaativat toimiakseen uusia sensoreita ja kommunikaatiovälineitä. Vikaantuvia laitteita on entistä enemmän, eikä niitä voi enää huoltaa tai korjata paikan päällä, vaan paikalle pitää lähettää asiantunteva teknikko. Tällä hetkellä henkilöstökulujen on arvioitu olevan noin kuusi prosenttia laivan käytön kustannuksista, mutta kuluja tuottaa myös ihmisten tarvitsema infrastruktuuri. Autonomisella laivalla ei tarvita vessaa eikä keittiötä.

Haasteista viis – businesstä ja innovaatioita tulee kumminkin

Vielä ei ole täyttä varmuutta, minkälaisin järjestelyin on halvempaa valvoa laivoja etäkeskuksista kuin kansimökistä tavalliseen tapaan. Merenkäynti on konservatiivinen ala, ja usko autonomisiin laivoihin vaihtelee innosta epäuskoisuuteen. Itse uskon ainakin autonomiateknologioiden hyödyllisyyteen. Vaikka kaupallisesti toimiviin miehittämättömästi kulkeviin valtamerilaivoihin olisi vielä matkaa, sensoriteknologiat ja tekoäly voivat hyödyttää merenkävijää uusilla tavoilla jo lähitulevaisuudessa. Laivojen tilan etävalvontaa tehdään jo nyt.

Voidaan esimerkiksi miettiä, kannattaako ympärivuorokautinen vahdinpito aavalla merellä. Väsymys, tylsyys ja turhautuminen heikentävät turvallisuutta. Ehkä olisi parempi järjestää asia niin, että öisin tekoäly ja valvomo valvovat ja herättävät vahtivuorolaisen vain tarvittaessa. Lisäksi haastavissa olosuhteissa vaikkapa arktisella merellä on hyvä tukea tilannetietoisuutta uusilla välineillä.

Muutos ei tapahdu nopeasti. Tarvitaan hyvää työn suunnittelua, ja tähän kehitykseen on otettava mukaan työntekijät. Heiltä opitaan asioita toimintaympäristön haasteista, jotka huomioidaan autonomisten laitteiden suunnittelussa.

Metro, automaatio ja suuret tunteet: pelätäkö ihmisten pelkoa?

Liikennevälineistä minulle rakkain on Pariisin metro. Sillä pääsee kolmessa vartissa suurkaupungin joka kolkkaan. Järkevät karttakuvat näyttävät selkeästi, mihin ollaan menossa laiturialueelle käveltäessä. Linja 14 oli Pariisissa asuessani kaupungin ainoa kuskiton metrolinja. Hieman yllättäen askel laiturialueelta vaunuun toi epämukavan pelon tunteen. Tunne häipyi nopeasti, kun juna nytkähti liikkeelle. Olin metrossa yksi monista, joten sosiaalisten vaikuttimien saattelemana myös alitajuntani ymmärsi, että aihetta pelkoon ei ole.

Pariisissa opiskelemallani teoriaviitekehyksellä tutkin myöhemmin pääkaupunkiseutulaisten Helsingin automaattimetroon liittyviä mielipiteitä. Teorian mukaan ihmisten jaettu ymmärrys maailmasta kehittyy, kun uusista ilmiöistä keskustellaan, ja tähän keskusteluun vaikuttavat olemassa olevat yhteiskunnalliset valta- ja merkitysrakenteet. Ranskalainen sosiaalipsykologinen teoria rakentaa siltaa yhteiskunnan ja inhimillisen ymmärryksen välille.  Havaitsin, että automaattimetroon suhtaudutaan pääkaupunkiseudulla kielteisesti myönteisestä mediakeskustelusta huolimatta. Tieto automaattimetrosta kuitenkin vähensi kielteisyyttä. Ajatus automaattimetrosta yhdistyi kokemuksiin tietokoneiden epävarmuudesta, ajatukseen työttömyydestä sekä science fiction -kirjallisuuden kauhukuviin.

Automaattimetrotutkimukseni soveltui hyvin teoriapohdiskeluun, mutta suurta käytännön merkitystä sillä ei ollut. Automaattimetroa ei koskaan saatu Helsinkiin, ja nyt ajattelen niin, ettei ihmisten ennakkokäsityksillä ole kovin suurta merkitystä teknologian käyttöönotossa. Varsinainen mielipide muodostetaan välittömässä käyttötilanteessa itse välineen kanssa. Tämän osoittaa oma kokemukseni Pariisin metron 14. linjalla sekä tilastot: vaikka ennakkokäsitys robottiteknologiasta sisältäisi vastahankaa, käyttökokemus voi olla hyvinkin myönteinen.

Ei siis tule olla kovin huolissaan ihmisten ennakkoajatuksista, jos itse laitteet ovat hyviä. Pelkoja kannattaa kuitenkin hälventää viestinnän keinoin. Jos ennakkopelot yhdistyvät ongelmiin tai onnettomuuksiin, teknologian maine voi romahtaa suhteettomasti.

Automaatio ja automatisoitavat

Mielestäni teknologiayritysten ei myöskään tarvitse olla liian huolissaan työntekijöistä, joiden työtä automatisointi periaatteessa uhkaa. Merimiesunioni on skeptinen autonomisia laivoja kohtaan samoin kuin kuljettajien ammattiliitto oli Helsingin automaattimetroa kohtaan. Tästä huolimatta ainakin ulkopuoliselle tutkijalle kuljettajat olivat hyvin avoimia metron automatisointia koskevissa asioissa. Kapinahenkeä ei havaittu. Tosin kuljettajille oli luvattu, etteivät he menettäisi työpaikkaansa vaan vain toimenkuva muuttuu. Kenties oli myös niin, että vanhat metrokuljettajat jo näkivät eläkkeen lähestyvän, ja nuoremmille oli kiinnostavaa olla mukana teknologisessa muutoksessa.


Mikael Wahlström
Erikoistutkija, valtiot. tohtori (sosiaalipsykologia)


Kirjoittaja on tutkinut autonomisten laivojen turvallisuutta AAWA-projektissa. Aalto-yliopiston kanssa tehty turvallisuusanalyysia koskeva projektin raportti löytyy täältä. Tutkimus Helsingin automaattimetroon liittyvistä näkemyksistä löytyy täältä.

Kolmiosaisen kirjoitussarjan ensimmäisessä osassa käsiteltiin terveydenhuoltoa.
Viimeisessä osassa, joka julkaistaan tammikuussa, käsitellään ihmistä koneen mallina.

Will machines take our work? – Part 1: Healthcare and unempathetic artificial intelligence

The Finnish population is getting older, which is creating pressures in the healthcare system. Robots have been envisioned as a potential means for alleviating the workload of nurses. But is artificial intelligence suited for nursing? Would you want a robot to steer your physiotherapy? Can a surgical robot perform as well as a surgeon?

It is generally thought that robots steered by artificial intelligence (AI) will replace people in increasingly complex work tasks. I personally examine the matter from the perspective of work research. On this basis, I can sense if some suggested technological development path appears difficult to implement. On the other hand, work research offers a good perspective on the development of technology, because it offers a medium for identifying the needs of employees, and the division of labour between a human and a machine.

In this article, in addition to healthcare, I touch upon the meaning of empathy in practical work. People have their own experience of what it means to be a human being, so they are capable of placing themselves in some other people’s position, in other words, considering a matter with his or her situation, perspective and feelings in mind. Almost all work tasks require some sense of empathy, since work almost always serves other people’s needs. In most professions, you work for either a customer or an employer, and generally in collaboration with others.

Artificial intelligence is good at playing games

How people act at work is largely based on the expectations of other people and their more or less emphatic understanding of other people’s points of view. Robot, on the other hand, executes rules programmed in it. In addition, a machine can be programmed to edit its own rules, or to learn. Provided with a massive amount of data, a learning AI may develop quite extensive skills within operating environments with clearly definable rules, causal connections and goals. An AI may be good at playing games, and it can be used, for example, for increasing the productivity of a social media marketing campaign.

Even though there are certain rules in healthcare, nursing is not strictly steered by rules, since the work requires situation-specific flexibility. Every patient has a different body, mind and precise clinical status. Therefore, also the way the patient is medicated, washed, operated on, massaged or nursed in general varies. It is not advisable to treat patients with a formal routine. Even though the work may appear as being routine, research shows that nursing includes continuous and discreet micro-level decision-making and adaptation of working methods. Besides on medical training, this decision-making is based on intuition and – as I at least assume – the personal experience of an empathetic care worker of what it means to be a human being.

In a greater degree than most other sectors, healthcare is characterised by uncertainty, since, at an individual level, the outcomes are difficult to predict. Patient’s recovery from, say, a surgical procedure always involves an element of chance, regardless of how well the operation went.

Empathy enhances the quality of treatment

Even though it is not advisable for a care worker to start feeling what the patient is feeling, a good employee acknowledges that the patient’s feelings are of importance with a view to recovery and the quality of treatment. Without empathy, it would be difficult to calm down a patient verbally or by touching.

As a rule, being incapable of empathy, AI is not well suited to replace humans in care work, since care work is difficult to model in the language of mathematics due to the complexity of the phenomena involved. Feelings, the bodily and verbal interaction between people, and intuitive patient-specific decision-making at micro level are phenomena that are difficult to measure and control.

The existing care robots perform simple tasks in hospital logistics, provide entertainment and activate patients. Toylike robots with slight resemblance to humans may act as physical trainers for patients. Research results seem to indicate that patients find robots more motivating and pleasant than exercise videos. Some robot-like intelligence may be programmed in physiotherapeutic devices, i.e., the exact form and challenge level of therapy can be automatically adapted to the patient’s performance. However, the ability of AI to provide personal advice or guidance to patients is very limited or non-existent. In other words, robots will not replace physiotherapists. Devices are not capable of providing hands-on guidance or making comprehensive analyses of patients.

The surgeon’s responsibility and the patient’s destiny

I have personally studied surgical work in particular. In surgical procedures, good experiences have been gained from automation performing certain limited and precisely defined parts of an operation. This takes place under the surgeon’s close control, and the robot has no responsibility whatsoever for the overall performance of the operation. Surgical robots are devices surgeons steer with their hands and feet. The operation is performed through tubes, and the surgical robot also provides a 3D view inside the patient’s body. Viewed through a robot’s eyes the world looks strange and peculiar; object recognition is a real challenge for a surgeon in such an environment. Further development of sensor technology could be of assistance in this matter.

If I personally end up under a surgeon’s robot one day, I would not want the operation to be performed by a superficially skilful surgeon who is in a way playing a computer game with my body. A surgeon follows a pre-agreed surgical plan, but changes are made as the situation requires, because the view of the patient’s clinical status may become more accurate or even change during surgery. Furthermore, a surgical procedure always involves a difficult conflict: the goal is to treat the patient, but surgery always causes some damage as well. For example, in a prostate surgery, the aim is usually to remove the prostate gland containing cancer cells from the body. If you remove too much tissue, the nerves and muscles important for erection and continence may suffer, but if you do not remove enough, cancer treatment does not work. A comprehensive understanding of the patient helps in the decision-making, when the surgeon needs to solve this conflict during the surgery – sometimes the patient may even be so old that it does not matter much whether he maintains his erectile function or not. It is difficult to draw a scientifically established direct connection between sense of empathy and surgical decision-making, but I would personally hope that the surgeon performing the operation would understand at a personal level how important sex and continence are.

Mikael Wahlström
Senior Scientist, PhD (Soc Psych)


The author has participated in various automation projects and analysed security-critical work, for example, as a head of the Academy of Finland project called WOBLE that studied the work of surgeons who use robotic systems. WOBLE was funded by the Finnish Work Environment Fund and it was implemented in collaboration with the Finnish Institute of Occupational Health and Tampere University Hospital. The final report of the WOBLE project in Finnish can be found here.

The next two parts of the three-part series of articles will focus on logistics and on modelling machines after humans.

Robots create hands-on feeling for remote mine operators

In the old days, miners would take a canary down to work with them in the mine shaft. If the canary died, the miners knew that they’d soon be next if they didn’t make a run for it. Canaries were a good indicator of pending disaster.

But canaries can’t do algorithms

In the mine shafts of the future, it will be robots not canaries that act as sentinels for safety. They’ll also be programmed to support or carry out other aspects of mining operations, while human operators stay safely positioned in remote stations above ground. But in the absence of any warm blooded beings below, how will remote operators be able to get a hands-on feeling of what’s going on? In order for mining operations to remain robust, efficient and safe, these remote operators can’t just be observers. They must partake in the operations, and with different senses in play.

A sense of sight can be achieved with various types of remote camera visualizations, although it’s still not easy for operators in the absence of 3D or stereoscopic view. But what about the other senses? Robots need to give feedback to the extent that remote operators feel just like being there on the spot with the remote machine.

Putting all the senses in play

An operator using a subterranean robot to drill holes in rock face may be able to experience a sense of touch, for example, through haptic feedback on the remote controllers. That means being able to feel how solid the rock is and adjust speed or strength accordingly. If the rock were to get too hard for the drilling equipment, it could create all kinds of unwanted safety repercussions and the need for expensive repairs.

shutterstock_132947174A sense of hearing as well as a sense of smell would also be useful, for example, to analyze machine motor sounds and underground explosions or events where gas leaks or burning are indicators of pending disaster. In the former case, auditory feedback is rather easy to implement with microphones, speakers and deliberate sound design. But in the latter case, instead of direct olfactory, or sense of smell, feedback, applicable sensors need to be able to detect suspicious alterations in air quality and alarm operators in other ways.

We recently visited a mining and technology conference in Toronto where many of the presenters and participants were using buzzwords like IoT, Industry 4.0, augmented and virtual reality (AR/VR), user experience and autonomous systems. However, during the breaks, most conceded that the mining industry still has some way to go before these tech trends could be applied to deliver value.

How can VTT help?

In a rather different kind of environment to mines, VTT, together with Tampere University, has developed a Remote Operation and Virtual Reality Center (ROViR) in Tampere, Finland to support remote operation and maintenance simulations for one of the world’s most challenging energy projects, based in the South of France, called ITER – in Latin, meaning ‘the way’.

As with mineshafts, no warm-blooded beings will be able to enter the ITER facility once it’s up and running. That means all maintenance will have to be carried out by smart robots, equipped with sensors for dealing with every possible scenario.

Finding the way with ITER

So far at ROViR, VTT has achieved high success in simulating ITER remote maintenance operations, many of which can be applied to other sectors. For example, VTT has honed the use of a transport robot to move a ten-tonne reactor cassette along a desired route with an accuracy of plus or minus 1 mm.

As well as supporting ITER, one of the aims of our design work with ROViR has been to find new ways for remote operators to achieve a sense of control. And many of these solutions can be directly applied to mining. For example, using VR/AR to help operators better understand spatial dimensions, such as distances among elements; applying ecological interface design for safety-critical control room monitoring user interfaces; or using AR video feeds to highlight crucial objects in remote work areas.

Our InnoLeap concept design approach has been developed to push radical new concepts into the industrial workplace. Backed by the experience gained from this concept design work with ROViR center, we’re now well positioned to provide numerous applications for other industries, especially the mining sector. That means collaborating with mining companies to go deep into the remote operators’ user experience. Using our task-analysis methods, we can explore what remote mining operators will need to do and know in order to be successful in their work tasks, both in abnormal and normal situations.

Canary or no canary, remote operators in the mines of the future won’t succeed by just winging it.

For more information, please visit: www.vtt.fi/innoleap/

Hannu Karvonen
Research Scientist, VTT



Mikael Wahlström
Senior Scientist, VTT