Kaikki aineistot
Lisää
Ohjelmistojärjestelmän oikean toiminnallisuuden varmistaminen on olennainen osa mitä tahansa ohjelmistokehitysprosessia, mutta erityisen tärkeää lentokoneissa käytettäville turvallisuuskriittisille järjestelmille, joissa ongelmilla voi olla vakavat seuraukset. Koska yksikään lentokone ei ole vielä toistaiseksi pudonnut virallisten lähteiden mukaan suoraan ohjelmistovirheen seurauksena, nämä järjestelmät vaikuttavat myös täyttävän niille asetetut luotettavuusvaatimukset erittäin hyvin. Hyvästä menestyksestä voidaan ainakin osittain kiittää lentokoneohjelmistojen kelpoistamisprosessia, joka määrittelee järjestelmille joukon tiukkoja vaatimuksia, jotka on otettava huomioon niiden kehityksen aikana. Yksi näistä vaatimuksista on täydellinen MC/DC-peittävyys järjestelmän toteutukselle käyttäen testejä, jotka on tuotettu järjestelmän määritelmästä. Tämä vaatimus koskee ainoastaan kaikista kriittisimpiä järjestelmiä, ja sen tarkoitus on osoittaa paitsi että toteutus on määritelmän mukainen, myös että toteutus ei sisällä ei-toivottua toiminnallisuutta. Koska MC/DC-testien tuottaminen käsin on hyvin työlästä, tutkimme tämän työn puitteissa miten automaatiota voidaan soveltaa helpottamaan tätä prosessia. Tämä työ esittelee tavoiterajoitteet, uuden laajennksen dynaamiselle symboliselle suoritukselle, joka mahdollistaa automaattisen MC/DC-testien tuottamisen. Tavoiterajoitteet ovat olennaisesti ohjelman lähdekoodiin lisättyjä lisävaatimuksia siinä esiintyvien muuttujien arvoille, ja niitä voidaan käyttää dynaamisen symbolisen suorituksen aikana sekä ohjaamaan testausta, että valitsemaan kiinnostavia testejä. Esitämme miten tavoiterajoitteet voidaan automaattisesti tuottaa ja instrumentoida C-kielisen ohjelman lähdekoodiin, ja miten tuki tavoiterajoitteille on toteutettu automaattiseen ohjelmistotestaustyökaluun nimeltä LIME Concolic Tester. Esitämme myös miten arvion toteutuksesta, ja keskustelemme mitä hyviä ja huonoja puolia liittyy automaattiseen ohjelmistotestaukseen lentokoneohjelmistojen kelpoistamisprosessin näkökulmasta.
Kokeilemalla kehittäminen on erityisen hyödyllistä, kun haetaan toimialoja haastavia innovaatioita. Osaaminen nopeiden palvelukokeilujen toteuttamiseen on vasta kehittymässä. Palvelusektorin innovaatiotoiminnassa kokeileminen ei ole vielä yhtä yleistä kuin tuote-, vuorovaikutus- ja ohjelmistokehityksessä. Tässä tutkimuksessa selvitetään, kuinka palveluinnovaatioita voidaan kehittää kokeilemalla. Tutkimus pohjautuu seuraaviin tutkimuskysymyksiin:. 1. Millainen prosessi ja millaiset tekniikat ja käytännöt tukevat uudenlaisten palvelutarjoomien kehittämistä?. 2. Miten palvelukokeilutila voisi tukea palvelutarjoomien kokeilemista? Missä tilanteissa ja miten tilaa kannattaisi hyödyntää?. Tutkimus koostuu kirjallisuus- ja toimintatutkimuksesta. Kirjallisuustutkimus kokoaa olemassa olevan näkemyksen siitä kuinka palveluja suunnitellaan ja kokeillaan. Palvelu määritellään kahden toimijan väliseksi iteratiiviseksi prosessiksi. Palveluja ei voi tuottaa kuten tuotteita. Yritys voi suunnitella ja valmistella ainoastaan palvelutarjooman, jonka avulla se tukee asiakkaan palveluprosessia ja asiakkaan omaa arvontuotantoa. Kokeileminen on keino tutkia, millaisen arvon ja kokemuksen asiakas palvelusta saa. Toimintatutkimuksessa toteutetaan kolme innovaatioprojektia sekä kehitetään palvelukokeilutilan konseptia. Kunkin projektin kohdalla tutkitaan millaista innovaatioprosessia hyödynnetään, millaisia palvelukokeilutekniikoita käytetään ja millaisia kokeilua tukevia käytäntöjä voidaan löytää. Kokeilutilan tarkoituksena on tarjota turvallinen ymparist6 nopeiden alkuvaiheen kokeilujen toteuttamiseen. Kokeilutilassa voidaan käyttää eri palvelukokeilumenetelmiä, kuten näyttelemistä. kuvakasikirjoitusta sekä palveluymparist6n rakentamista ja testausta. Kokeiluympäristöjen hyötyjen ja haittojen analysoimiseksi kokeiluja tehdään sekä palvelukokeilutilassa että oikeassa palveluympäristössä. Tutkimuksen tuloksissa esitellään kokeilemalla kehittämisen prosessimalli, jonka tueksi on kehitetty työkalu helpottamaan kokeilumenetelmien valitsemista erilaisiin kokeilutarpeisiin. Kokeilemalla kehittämistä tukevia käytäntöjä ovat esimerkiksi kokeilun takarajan määrittäminen, selkeän hypoteesin luominen. tavoitteen rajaaminen. rinnakkainen kokeileminen sekä analysoiva dokumentointi. Tutkimuksessa tunnistettiin viisi tilannetta, joissa palvelukokeilutila tukee innovaatioprosessia. Ennen kaikkea kokeilutilan tarkoituksena on auttaa suunnittelijaa määrittelemään paras arvaus siitä, miten palvelu toimii, jotta palvelukokemuksen ja arvontuotannon varmistamiseksi tarvittava kokeilu reaaliympäristössä olisi helpompaa.
Tässä työssä tutkitaan ajoneuvon reititysongelman (Vehicle Routing Problem, VRP) variaatiota, joka on räätälöity ladattavia sähköautoja varten. Tutkittu ongelma käsittää laivueen identtisiä sähköautoja, jotka sijaitsevat keskusvarikolla; joukon asiakkaita, joiden luona tulee vierailla annettujen aikaikkunoiden määräämissä rajoissa; sekä joukon latausasemia, joissa autot voivat käydä lataamassa akkunsa. Ongelman tavoitteena on suunnitella joukko ajoreittejä, alkaen varikolta ja päättyen varikolle, siten, että jokainen asiakas on palveltu tasan kerran ja ajoreittien yhteenlaskettu energiakustannus on pienin mahdollinen. Koska sähköautojen toimintasäde on lyhyt ja akun lataaminen kestää suhteellisen kauan, tulee sekä latausasemakäynnit että lataukseen kuluva aika ottaa erityisesti huomioon reitin suunnittelussa, minkä vuoksi useimmat ajoneuvon reititysongelman variaatiot eivät ole riittäviä mallintamaan tutkittua ongelmaa. Sähköautojen optimaalista reititystä ei ole tutkittu paljon alan kirjallisuudessa. Kaksi keskeisintä mallia ovat Green VRP (G-VRP) (Erdogan & Miller-Hooks, 2012) ja Electric VRP with Time Windows (E-VRPTW) (Schneider et al., 2013). Tässä työssä tutkittu malli on yleistys E-VRPTW -mallista, joka mahdollistaa lisäksi mielivaltaisen energiamäärän lataamisen latausasemilla toisin kuin alkuperäisessä mallissa, jossa sähköautojen akut ladataan täyteen jokaisella käynnillä. Tässä työssä esitetään energiapolku (e-path) ja kehitetään uusi formulaatio tutkitulle ongelmalle perustuen ei-dominoituihin energiapolkuihin asiakasparien välillä. Uusi formulaatio vähentää päätösmuuttujien lukumäärää mallissa ja poistaa tarpeen asettaa mielivaltaisen ylärajan latausasemakäyntien lukumäärälle, kuten on tavallisesti tehty aikaisemmissa malleissa pitääkseen niiden koot kohtuullisina. Työssä esitetään myös uusia esikäsittelyjä sekä valideja epäyhtälöitä. Laskennalliset testit osoittavat, että työssä kehitetty uusi formulaatio on huomattavasti tehokkaampi kuin alkuperäinen vastaava. Lisäksi mallintamalla ladattu energiamäärä muuttujana, toisin kuin suorittamalla täysi lataus jokaisella latausasemakäynnillä, voidaan kuljetuskustannuksia vähentää merkittävästi.
Transcription factors (TF) have a central role in regulating gene expression by binding to regulatory regions in DNA. Position weight matrix (PWM) model is the most commonly used model for representing and predicting TF binding sites. Consequently, several studies have been done on predicting TF binding sites using PWMs and many databases have been created containing large numbers of PWMs. However, these studies require the user to search for binding sites for each PWM separately, thus making it is difficult to get a general view of binding predictions for many PWMs simultaneously. In response to this need, this thesis project evaluates both individual and groups of PWMs and creates an effortless method to analyze and visualize the desired set of PWMs together, making it easier for biologist to analyze large amount of data in a short period of time. For this purpose, we used bioinformatics methods to detect putative TF binding sites in human genome and make them available online via the UCSC genome browser. Still, the sheer amount of data in PWM databases required a more efficient method to summarize TF binding prediction. Hence, we used PWM similarity measures and clustering algorithms to group together PWMs and to create one integrated database from four popular PWM databases: SELEX, TRANSFAC, UniPROBE, and JASPAR. All results are made publicly available for the research community via the UCSC genome broswer.
Cooperation between workers in the same company or several companies has become increasingly important nowadays. The cooperation on some task usually involves sharing information about the following steps involved in the task as well as negotiation between workers who are considered to form a group. There is already software for helping people to work together and program components that can support cooperation in a particular application. Typically, they are either too specific for a certain task or too complex to configure. In this thesis, we design groupware for handling task queues within and between companies. The groupware offers a protocol for workers in the same company to work together and to handle tasks in the shared queue. It also supports cooperation between workers in different companies. The workers cooperate in an asynchronous way but see the updates of the task queue state in real time. Information about the shared task queue is made consistent across all clients who may be physically distributed. The thesis also compares different ways to design groupware that implements the shared task queue. A concurrency control algorithm for the application is adopted from literature and implemented. Finally, the correctness of concurrency control algorithm is assessed by developing a formal model in the Promela language and by examining the state space using the Spin model checker.
Langattomassa viestinnässä signaalinlaatua heikentävät sähkömagneettisten aaltojen satunnaissironta sekä taustakohina. Tämän erityispiirteen vuoksi viestinnän luotettavuuden takaaminen on langattomien kanavien perusongelma. Toisaalta sähkökentän häipymistä ja kohinaa voidaan hyödyntää fyysisen kerroksen salausmenetelmissä, joissa viestintä suunnitellaan sellaiseksi, että vastaanottajan oikean dekoodauksen todennäköisyys romahtaa signaalin laadun heikentyessä tarpeeksi. Tällöin kaukana oleva salakuuntelija ei pysty tulkitsemaan viestiä. Diplomityössä tutkitaan viestintähilojen suunnittelua hilakoodeja ja erityisesti hilojen jäännösluokkakoodeja varten pääasiassa nopeasti häipyvän Rayleigh-kanavan mallissa. Luotettavan viestinnän takaaville hilakoodeille tunnetaan lukuteoreettisia kostruktioita, kun taas myös fyysisen kerroksen salauksen takaavien hilojen jäännösluokkakoodien suunnittelu on avoin ongelma. Diplomityö aloitetaan kertaamalla informaatioteorian perustuloksia, jotka koskevat koodien olemassaoloa ja tiedonsiirtokapasiteettia. Tämän jälkeen erikoistutaan langattoman viestinnän kanavamalleihin sekä hilakoodeihin ja jäännösluokkakoodeihin. Näissä tapauksissa johdetaan ylärajat tarkoitetun vastaanottajan virhetodennäköisyydelle sekä salakuuntelijan oikean dekoodauksen todennäköisyydelle. Todennäköisyysrajojen perusteella lukukuntalaajennuksiin perustuvat algebralliset hilat suoriutuvat hyvin, ja tällaisten hilojen suunnittelu on lukuteoreettinen ongelma. Algebrallista lukuteoriaa tutkitaan laajasti ja saadaan algebrallisten hilojen konstruktio sekä työkalut viestinnän vertailukriteerien muotoiluun ja laskentaan lukuteoreettisin keinoin. Lopuksi lasketaan lukuteoreettiset invariantit sekä salakuuntelijan todennäköisyysraja joukolle algebrallisia hiloja. Tämän perustella arvioidaan ja geometrisoidaan salakuunteluongelmaan ehdotettuja jäännösluokkakoodien lukuteoreettisia hilasuunnittelukriteerejä.
Software systems are continuously forced to evolve as they cannot resist change. Quality typically degenerates as a software is subjected to change during the course of its lifetime. In this process, software quality must be audited, secured, and maintained, whereas maintaining such a system demands continuous refactoring. Researchers have contributed widely in the area of software refacting. Fowler and Beck have introduced 22 problematic code smells considered as drivers for refactoring decisions, whereas Brown et al. have identified development anti- patterns known to make systems harder to maintain. In spite of the wide contribution in the field, there is still little evidence to justify the usage of refactoring drivers. This study aims to contribute in this research gap by finding evidence on how software practitioners behave when making refactoring decisions. To achieve its objective, this study initially conducts a literature review on the drivers for refactoring decisions, i.e., code smells and anti-patterns. Further, it examines relevant literature exploring the usage of these drivers. Finally, we conduct a case study introducing new empirical evidence on how software practitioners make use of refactoring drivers. We further discuss the relation between our empirical findings and the examined literature. Our key findings indicate that the code smells and anti-patterns found in the literature are not enough to be used as a basis for refactoring decisions. Drivers related to code documentation and style have been mostly neglected in the literature, whereas together they were the underlying reason for the 45% of all refactoring decision made in the case company.
Tässä työssä tutkittiin hyvinvoinnin ja työhyvinvoinnin teoriaa, sekä yhdistettiin näitä kokonaisvaltaisen hyvinvoinnin määritelmäksi. Hyvinvointi ja työhyvinvointi koostuvat monesta eri tekijästä. Kokonaisuutena henkilön hyvinvointiin voi vaikuttaa pienemmillä ja suuremmilla teoilla ja tavoilla. Hyvinvoinnin teoriasta ja tutkimuksista käy ilmi, että hyvinvointiin vaikuttaa mm. terveys, sosiaalisuus, koulutus, työ, tulot, ympäristö, henkilökohtaiset toiminnot, motivaatio, onnellisuus, tyytyväisyys ja moni muu asia. Työhyvinvoinnin ja hyvinvoinnin erottamisen sijaan tekijä puhuu kokonaisvaltaisesta hyvinvoinnista, jossa kaikkien osien olisi hyvä olla jollain tavalla tasapainossa, jotta ihminen kokonaisuutena voi hyvin. Mikäli ihminen voi hyvin huonosti jollain elämänsä osa-alueella, ei hän voi kokonaisvaltaisesti hyvin. ICT-alan yritykset Suomessa tukevat työntekijöiden hyvinvointia monella tapaa ja sisällyttävät hyvinvoinnin tukemiseen liikunnan tukemisen lisäksi myös lounassetelit, kehityskeskustelut, työajanseurannan, työterveyshuollon, yhteiset kahvihetket ja monta muuta asiaa. Yritykset ovat siis tietoisia kokonaisvaltaisesta hyvinvoinnista, koska näkevät hyvinvoinnin tukemisen moniulotteisena asiana. Yhtä moniulotteista sovellusta yrityksillä ei ole käytössä, joten tässä työssä kehitetylle kokonaisvaltaista hyvinvointia tukevan sovelluksen konseptille olisi varmasti kysyntää niin ICT-alan yrityksissä, kuin muidenkin alojen yrityksissä. Tässä työssä kehitetyn konseptin, kokonaisvaltaisen hyvinvoinnin tukemisen sovellukselle pääsisältö on selvittää käyttäjän tuntemusta itsestään ja ohjata käyttäjää pienillä ja suuremmilla tehtävillä kohti itsetuntemusta ja kokonaisvaltaisempaa hyvinvointia. Käyttäjä voi myös itse valita osa-alueen, josta haluaa tehtäviä tehdä. Käyttäjää ohjataan myös miettimään aamuisin, mitä haluaa päivän aikana saada tehtyä. Kun käyttäjä saa merkittyä tehtäviä tehdyksi, hän saattaa tuntea edistyneensä. Edistymisen tunne tuo motivaatiota ja hyvää mieltä tehdyistä tehtävistä.
Analysis of high volumes of data has always been performed with distributed computing on computer clusters. But due to rapidly increasing data amounts in, for example, DNA sequencing, new approaches to data analysis are needed. Warehouse-scale computing environments with up to tens of thousands of networked nodes may be necessary to solve future Big Data problems related to sequencing data analysis. And to utilize such systems effectively, specialized software is needed. Hadoop is a collection of software built specifically for Big Data processing, with a core consisting of the Hadoop MapReduce scalable distributed computing platform and the Hadoop Distributed File System, HDFS. This work explains the principles underlying Hadoop MapReduce and HDFS as well as certain prominent higher-level interfaces to them: Pig, Hive, and HBase. An overview of the current state of Hadoop usage in bioinformatics is then provided alongside brief introductions to the Hadoop-BAM and SeqPig projects of the author and his colleagues. Data analysis tasks are often performed interactively, exploring the data sets at hand in order to familiarize oneself with them in preparation for well targeted long-running computations. Hadoop MapReduce is optimized for throughput instead of latency, making it a poor fit for interactive use. This Thesis presents two high-level alternatives designed especially with interactive data analysis in mind: Shark and Impala, both of which are Hive-compatible SQL-based systems. Aside from the computational framework used, the format in which the data sets are stored can greatly affect analytical performance. Thus new file formats are being developed to better cope with the needs of modern and future Big Data sets. This work analyses the current state of the art storage formats used in the worlds of bioinformatics and Hadoop. Finally, this Thesis presents the results of experiments performed by the author with the goal of understanding how well the landscape of available frameworks and storage formats can tackle interactive sequencing data analysis tasks.
Brain--computer interfaces (BCIs) provide disabled patients with access to communication tools and control of prosthetic devices. Most BCIs employ a machine-learning algorithm which analyzes brain data in real time and provides users with feedback. Magnetoencephalography (MEG) is a non-invasive method which records neuromagnetic signals from the brain at a high temporal resolution. This makes it particularly suitable for real-time analysis and machine learning. Developing tools that allow such analysis will have long-term benefits in using MEG for BCI approaches and exploring new experimental paradigms. In this thesis, a real-time analysis pipeline for machine learning in MEG was developed with the goal to enable BCI in MEG systems. The implementation details of the pipeline were described in the thesis along with performance details. Additionally, pilot measurements to decode auditory attention were conducted. The spatio-temporal dynamics of the offline experiment were used to optimize the preprocessing steps required for the BCI application. In particular, the frequency range of 1.0--1.5 Hz was found to be particularly discriminative. Finally, simulating this pipeline in pseudo real-time mode demonstrated that a BCI to decode auditory attention is feasible in MEG.
Tämä diplomityö käsittelee odotusarvon välittämismenetelmän (expectation propagation, EP) soveltamista hajautettuun bayesilaiseen mallintamiseen. Työssä esitetään menetelmän yleinen toimintaperiaate ja yksityiskohtaisempi toteutus normaalijakauma-approksimaatiolle. Lisäksi työssä tutkitaan menetelmän soveltuvuutta hierarkkisiin todennäköisyysmalleihin. Tutkittavaan menetelmään perehdytään työssä lähdeaineiston pohjalta analysoiden. Lisäksi sovellettua menetelmää testataan simuloiduissa hierarkkisissa testitilanteissa. Erilaisia hajautettuja menetelmiä, joilla sovitetaan suuria datajoukkoja todennäköisyysmalleihin, on kehitetty viimeaikoina. Niille kaikille on kuitenkin yhteistä se, että kukin datajoukon osa käsitellään erikseen muista riippumattomasti. EP-menetelmässä osia käsitellään iteroiden ja viestin välitys -ominaisuus jakaa keskeistä informaatiota osien välillä. Aikaisemmin EP-menetelmässä käsiteltävä datajoukko on jaettu tyypillisesti pisteittäin. Jakamalla datajoukko suurempiin osiin, saadaan menetelmää hyödynnettyä monipuolisemmin. Hierarkkisissa malleissa on hyödyllistä jakaa datajoukko ryhmittäin. Hajautettu EP-menetelmä osoittautui simuloiduissa testitilanteissa toimivaksi. Tuloksista on havaittavissa, että datajoukon osituksen osien lukumäärän kasvattaminen kasvattaa approksimaation virhettä. Lisäksi on ilmeistä, että menetelmässä on myös muita virhelähteitä, joiden vaikutuksesta algoritmin konvergoituminen voi estyä. Menetelmän virhelähteiden arviointi ja vertailu muihin vastaaviin menetelmiin vaativat lisätutkimuksia.
Pelilaitteiden laskentateho on lisääntynyt ja fysikaalista simulaatiota hyödynnetään animoinnissa yhä enemmän. Fysikaalista simulaatiota on kuitenkin käytetty varsin harvoin suoraan pelaajien ohjaamien dynaamisten hahmojen animointiin menetelmään liittyvien ohjaushaasteiden vuoksi. Tässä diplomityössä tutkittiin, liittyvätkö dynaamisen hahmon ohjattavuusongelmat hahmojen ohjaukseen kehitettyjen käyttöliittymien epäintuitiivisuuteen vai onko hahmojen suora ohjaaminen itsessään haastavaa. Fysikaalisesti mallinnetuissa räsynukkepeleissä hahmon suora ohjaaminen on tärkeä osa pelin peruspelimekaniikkaa. Tutkimalla näiden pelien pelattavuuteen ja kiehtovuuteen liittyviä tekijöitä, voisi selventää mitä asioita tulisi huomioida kehitettäessä käyttöliittymiä suoraan ohjattaville hahmoille. Tarkempaa tarkastelua varten työssä kehitettiin kopio QWOP-pelistä, johon toteutettiin käyttöliittymät näppäimistölle, peliohjaimelle ja liikeohjaimelle. Pelin avulla pyrittiin selvittämään, miten ohjaintyyppi vaikuttaa pelin ohjattavuuteen, pelattavuuteen ja kiehtovuuteen. Testi järjestettiin Aalto-yliopistossa ja testiin osallistui 18 koe-henkilöä. Pelaajat pelasivat viisi minuuttia kutakin käyttöliittymäversiota ja sessioiden välissä kerättiin pelikokemukseen liittyvää dataa kyselyiden avulla. Tutkimuksen tulokset osoittavat, että hahmon suora ohjaaminen on kognitiivisesti haastavaa ja ohjauskäyttöliittymän puutteellinen toteutus voi haitata ohjattavuutta, pelattavuutta ja pelin kiehtovuutta. Tutkimuksessa käyttäjät suosivat ohjaustapoja, joissa pelaajan teon ja hahmon liikkeen välinen yhteys oli helppo hahmottaa, ja joissa hahmon tasapainon ylläpitäminen ja pelissä eteneminen oli helpompaa. Ohjauslaitteesta riippumatta ohjaustavan intuitiivisuuteen tulisi kiinnittää erityistä huomiota. Liikeohjain yhdistettynä käänteiskinematiikkaan vaikuttaisi lupaavalta tavalta hallita ohjaamisen kompleksisuutta. Tutkimus tuo esille myös dynaamisen hahmon ohjaukseen liittyviä tekniikoita, ongelmia sekä pelin kiehtovuuteen vaikuttavia tekijöitä.
Tämä työ tekee katsauksen laskennan siirtomenetelmiin sekä datan siirtomenetelmiin mobiiliympäristössä. Kasvojentunnistus sovelluksen laskennan siirtoa varten ajetaan sarja testejä Apache Spark datan prosessointi -kehysohjelmistolla. Arvioimme sovelluksen suorituskyvyn suhteessa käytettyyn aikaan ja energiaan, sekä keskimääräisen muistin ja prosessorien käyttöasteen. Koko sovelluksen laskennan siirron lisäksi ajamme testejä, jotka suorittavat laskentaa rinnakkain sekä paikallisesti mobiililaitteessa että palvelimella. Lopuksi arvioimme synkronointimenetelmien suorituskyvyn laajan tiedostohakemiston synkronoimiseen. Datan synkronointimenetelmiksi valittiin Git ja Rsync. Git muodosti muuttuneiden tiedostojen listan viimeksi tehdystä synkronoinnista nopeammin kuin Rsync, kun Rsync taas käytti testidatan synkronointiin sekä kasvojentunnistus sovelluksessa että Linux ytimen testeissä vähemmän aikaa ja energiaa. Git tukee useampaa ominaisuutta kuin Rsync ja on näin sopivampi tehtävissä, jotka edellyttävät kaksisuuntaista synkronointia mobiiliympäristössä. Kasvojentunnistus sovelluksen laskennan siirto Asus Nexus 7 2013 tabletilla Ubuntu Touch käyttöjärjestelmällä käytti alle kymmenysosan energiaa verrattuna paikalliseen laskentaan. Osittaislaskennan testien kohdalla energian kulutus oli suurempi kuin datan synkronointiin ja sovelluksen laskennan siirtoon palvelimelle käyttämä kokonaisenergia. Toisaalta, suurin suorituskyky ajan suhteen saavutettiin 90 %:n osittaisella laskennan siirrolla. Virransäästötilassa ajetut testit osoittivat, että tabletin energiatehokkuus parani, kun matala intensiiviset laskennan siirtotestit suoritettiin tässä tilassa. Toisaalta ajettaessa korkea intensiivisiä laskennan siirtotestejä, energiatehokkuus kasvoi käytettäessä tabletin aktiivitilaa. Datan synkronointi kokeissa ilmeni myös vaiheita, jotka käyttivät suuren osan laitteen laskentaresursseista. Näin on suositeltavaa suorittaa korkea intensiiviset tehtävät laitteen ollessa aktiivitilassa käyttäen saatavilla olevien suorittimien resursseja.
Työssä esitellään kaksiulotteinen kompleksinen hyperbolinen avaruus ja sen reunalla oleva Heisenbergin ryhmä. Työn tarkoituksena on hyperbolisten pakkojen määrittely kompleksiseen hyperboliseen avaruuteen ja Heisenbergin ryhmän logaritmisten koordinaattien johtaminen pakkojen avulla. Pakkoja ja logaritmisia koordinaatteja sovelletaan Heisenbergin ryhmässä kontaktikuvausten rakentamiseen. Nämä kontaktikuvaukset ovat yhteydessä Heisenbergin ryhmän kvasikonformikuvauksiin.
Optisesti pumpatut magnetometrit, jotka perustuvat alkalimetallikaasun magnetisaation optiseen mittaukseen, ovat lupaavia vaihtoehtoisia antureita ihmisaivojen synnyttämien magneettikenttien rekisteröimiseen. Nämä sensorit toimivat vain hyvin alhaisissa magneettikentissä, joten tehokkaita menetelmiä tarvitaan ympäröivältä magneettikentältä suojautumiseen. Tyypillisesti biomagneettisia kenttiä mitattaessa vaadittava suojaus on saatu käyttämällä passiivista magneettisesti suojattua huonetta; jäännöskenttä tyypillisen suojahuoneen sisällä kuitenkin ylittää optisten magnetometrien vaatimukset. Tämän työn tarkoituksena oli luoda suotuisa magneettinen ympäristö Aalto-yliopistoon näiden anturien käyttöä varten. Ensiksi remanenssimagneettikentät Aallon kaksi- ja kolmikerrossuojahuoneissa mitattiin ja mallinnettiin, jonka perusteella suunniteltiin ja rakennettiin liikuteltava aktiivinen kompensointijärjestelmä näiden kenttien pienentämistä varten. Mitatut remanenssikentät olivat suuruusluokaltaan 100 nT kaksikerroshuoneessa ja 5 nT kolmikerroshuoneessa; gradientit olivat vastaavasti noin 40 nT/m ja 5 nT/m. Kentän matalataajuiset fluktuaatiot olivat noin 1 nT:n luokkaa molemmissa huoneissa mittausajan ollessa 200 s. Rakennetulla kompensointijärjestelmällä suojahuoneiden staattinen kenttä pystyttiin pienentämään kymmenesosaan pään kokoisessa tilavuudessa. Järjestelmän takaisinkytkentäsilmukka pystyi nollaamaan kentän anturin kohdassa ja poistamaan matalataajuiset häiriöt kentästä. Tämä työ osoitti, että rakennettua kompensointijärjestelmää käyttämällä optisesti pumpatuilla magnetometreillä voidaan tehdä herkkiä neuromagneettisia mittauksia tyypillisissä magneettisesti suojatuissa huoneissa.
Työssä vertaillaan Cramérin–Lundbergin mallin ja kahden sen jatkokehitelmän pohjalta laskettuja vararikkotodennäköisyyksiä. Ensimmäisessä jatkokehitelmässä malliin lisätään diffuusiomuuttuja ja toisessa sijoitustuotot. Neljän eri korvausvaadejakauman, tasa-, eksponentti- ja Pareto-jakauman sekä degeneroituneen jakauman, pohjalta laskettuja vararikkotodennäköisyyksiä verrataan eksplisiittisesti toisiinsa. Jatkokehitelmien kohdalla myös analysoidaan riskiprosessia, joka on aito diffuusioprosessi. Työssä osoitetaan korvausvaadejakauman paksuhäntäisyyden muuttavan jokaisen mallin kohdalla analyysia merkittävästi. Vararikkotodennäköisyydelle ei nimittäin voida laskea eksponentiaalisesti väheneviä rajoja paksuhäntäisten korvausvaateiden tapauksessa. Mallissa, jossa vakuutusyhtiön ylijäämä sijoitetaan, todetaan vararikkotodennäköisyyden parhaimmillaankin noudattavan tällöin potenssilakia. Tästä huolimatta ylijäämän sijoittaminen voi tietyissä tilanteissa pienentää vararikkotodennäköisyyttä. Toisissa tilanteissa joudutaan taas valitsemaan korkeampien odotusarvoisten tuottojen ja pienemmän vararikkotodennäköisyyden väliltä.
Tämä tutkimus tarkastelee, miten ulkomaille tehtyjen pääomasijoitusten osuus vaikuttaa pääomasijoitusrahaston tuottoon, ja miten rahaston koko sekä syndikaatio moderoivat tätä suhdetta. Lisäksi työssä tarkastellaan, miten toiseen maanosaan tehdyt pääomasijoitukset vaikuttavat rahaston suorituskykyyn. Tutkimuskysymykseen vastataan sekä teorian kautta kirjallisuutta hyödyntäen että kvantitatiivisen analyysin avulla. Teoriakatsaus selostaa, miten pääomasijoitustoiminta on kansainvälistynyt 90-luvun puolivälistä lähtien, ja mitkä ovat keskeiset syyt sekä esteet kansainväliseen pääomasijoitustoimintaan. Teoriakatsaus myös ruotii rahaston tuottoon vaikuttavia seikkoja ja erittelee kansainvälisen pääomasijoitustoiminnan seurauksia sekä rahaston että kohdeyrityksen näkökulmasta. Kirjallisuuskatsaus antoi syytä arvioida, että suurempi osuus ulkomaille tehtyjä pääomasijoituksia vaikuttaisi positiivisesti rahaston tuottoon niin että rahaston koko ja syndikaatio moderoisivat tätä vaikutusta. Lisäksi toisiin maanosiin tehtyjen pääomasijoitusten oletettiin laskevan rahaston suorituskykyä. Hypoteesit testattiin käyttämällä 211 pääomasijoitusrahaston maailmanlaajuista otosta vuosilta 2007–2009. Rahastoja seurattiin vuoden 2015 loppuun asti. Heckman korjattu otos käsitti 250 pääomasijoitusrahastoa. Tärkeimmät tulokset osoittavat, että ulkomaille tehdyt pääomasijoitukset vaikuttavat negatiivisesti rahaston tuottoon rahaston koon moderoiden tätä suhdetta niin, että suuremmat rahastot ovat vähemmän alttiita negatiivisille vaikutuksille. Syndikaatio ei merkitsevästi vaikuttanut tähän suhteeseen. Toiseen maanosaan tehdyt pääomasijoitukset vaikuttivat niin ikään negatiivisesti rahaston suorituskykyyn. Tutkimuksen suurimmat rajoitukset liittyvät datan kattavuuteen sekä rahastojen otoksen kapeahkoon aikaväliin. Tutkimus antaa syytä uskoa, että pääomasijoittajien tulisi olla varovaisia ulkomaille sijoittaessa, ja rahastoihin sijoittavien tulisi myös olla tietoisia ulkomaille tehtävien sijoitusten mahdollisista negatiivisista vaikutuksista. Tulevaisuudessa olisi mielenkiintoista tutkia, miten eri maantieteellisillä alueilla vastaava ilmiö on mallinnettavissa rahastotasolla, ja miten eri syyt kansainvälisten pääomasijoitusten takana vaikuttavat sijoitukseen ja sen tuottoon.
There are solutions to target the vast majority of mobile platforms in one single project. The different strategies to develop an app for multiple platforms are compared based on a case study: Lecter. Lecter is going to be an e-learning platform that is accessible from mobile devices. At least iOS and Android are targeted, in order to target the vast majority of mobile platforms. Xamarin Forms, React Native and PhoneGap are three free frameworks to create an app for Android and iOS in a single project. Based on implemented prototypes of Lecter with use of the three mentioned frameworks, Xamarin is the closest to native development and PhoneGap is the closest to web development. When adopting cross-platform development, the decision between the frameworks affects the app development, the product performance and the business. Xamarin Forms is recommended to use for Lecter based on the skill set of the development team and the unlimited possibilities of Xamarin Forms.
Kasvava mielenterveyspotilaiden määrä on luonut tarpeen kehittää uusia potilasseurantamenetelmiä mielenterveyden hoitoon. Erilaisten huomaamattomien sensoreiden käyttö voisi osittain automatisoida potilasseurantaa. Mielenterveysongelmiin liittyvien piirteiden tunnistamista sensoridatasta voitaisiin käyttää apuna diagnoosien tekemisessä. Nykyään tavallisten älypuhelinten sensoreita voidaan käyttää ihmisen käyttäytymisen monitorointiin. Nämä sensorit mittaavat esimerkiksi kiihtyvyyttä, taustamelua, ympäristön kirkkautta ja puhelimen käyttöä. Lisäksi levosta ja unesta voidaan saada tietoa sänkyyn kiinnitettävällä ballistokardiografisella (BCG) sensorilla. Unen ja levon tiedetään vaikuttavan merkittävästi mielenterveyteen. Tämä työ käsittelee älypuhelinsensoreiden ja BCG-sensorin käyttöä ihmisen toiminnan mittaamisessa ja mielenterveysongelmien havaitsemisessa. Tutkimusdata kerättiin pilottitutkimuksessa, jossa kuudeltatoista koehenkilöltä kerättiin kännykkäsensori ja BCG-sensoridataa kuuden viikon ajan. Koehenkilöt täyttivät myös kyselyitä uneen ja mielenterveyteen liittyen. Lisäksi he pitivät ranteessaan kahden viikon ajan aktigrafia, jonka dataa verrattiin muihin sensoreihin. Työssä estimoitiin koehenkilöiden unen kestoa jokaisena yönä käyttäen BCG-sensorin dataa. Erotus estimaattien ja koehenkilöiden raportoiman nukkumisajan välillä oli keskimäärin yli tunti. Tarkan unen pituuden sijaan suosittelemme arvioimaan levon määrää, sillä sen havaitseminen datasta on huomattavasti helpompaa. Kännykkäsensoridatan analyysistä selviää, että päivärytmejä voidaan seurata monella eri sensorilla. Eri sensorit antavat lisäksi toisiaan tukevaa lisäinformaatiota koehenkilön käyttäytymisestä. Informaation lähteitä yhdistämällä voidaan kehittää tarkempia indikaattoreita mielenterveysongelmille. Jotta analyysimenetelmiä voitaisiin kehittää edelleen, tulisi jatkotutkimuksissa kerätä lisää ja parempilaatuista dataa.
Monet teollisuusautomaation laitteet synnyttävät jatkuvasti moniulotteista aikasarjadataa, jota voidaan hyödyntää näiden monimutkaisten koneiden automaattiseen monitorointiin. Tällaisen datan analysointi vaatii kuitenkin tarkoituksenmukaisia menetelmiä, jotka pystyvät käsittelemään moniulotteista dataa, jossa voi esiintyä vaihtelevia määriä kohinaa ja epälineaarisia suhteita eri prosessimuuttujien välillä. Tämä työ esittää syväoppimiseen perustuvan menetelmän anomalioiden tunnistamiseen moniulotteisesta aikasarjadatasta, joka pystyy myös tunnistamaan havaittujen poikkeavuuksien juurisyitä, sekä analysoimaan dataa lähes reaaliaikaisesti. Menetelmä perustuu kirjallisuudessa esitettyyn menetelmään, joka käyttää variationaaliseen autoenkooderiin pohjautuvaa arkkitehtuuria, sekä takaisinkytkettyjä neuroverkkoja, joiden avulla menetelmä pystyy mallintamaan datassa esiintyvää satunnaisuutta sekä ajallisia suhteita. Työssä esitellyn menetelmän suorituskykyä havaita anomalioita ja tunnistaa niiden juurisyitä vertailtiin viiteen erilaiseen kirjallisuudessa aikaisemmin esitettyyn menetelmään käyttäen muoviruiskuvalukoneista kerättyä dataa, sekä keinotekoisesti luotua moniulotteista aikasarjadataa. Työn tulokset osoittavat, että esitelty menetelmä tunnistaa anomalioita hyvin testatuilla datakokoelmilla, suoriutuen useimmiten paremmin kuin vertaillut menetelmät. Tämän lisäksi työssä esitetty menetelmä oli vertailluista menetelmistä paras arvioivaan havaittujen anomalioiden juurisyitä. Työssä suoritetut kokeet osoittavat, että syväoppimiseen perustavat algoritmit ovat hyödyllisiä anomalioiden tunnistamisessa, kun ongelma on liian monimutkainen perinteisille menetelmille ja koulutusdataa on saatavilla tarpeeksi. Työssä käytetyn ruiskuvalukonedatan määrä on kuitenkin suhteellisen pieni, minkä vuoksi lisätutkimuksia tulisi suorittaa suuremmilla datamäärillä, jotta saataisiin yleistettävämpiä tuloksia.
Most cars, already on the road, do not have a communication technology within them to communicate car data. The Onboard Diagnostics (OBD) device communication module collects required (and approved) car data on a cloud server. This thesis aims to provide a digital solution following a user-centric approach to inform the users to take immediate actions and encourage them to take preventive actions based on driving data on a mobile application. Chatbots are being used to provide advice and support. This thesis investigates the influencing factors that affect car user actions towards car alerts/problems provided by the OBD device through a chatbot. User testing with semistructured interviews and Wizard of Oz experiments (human chatting -improvised - structured dialogues) were chosen as the methods of study given the resource constraints of the thesis. The users were comfortable using chatbot for knowing car problems and booking car service. At places where information presented seemed insufficient, users preferred talking to a human agent. The findings of the study can be useful for connected car companies to create chatbot interface. The research was conducted with UK and India users and result is relevant to these regions.
Kohdunkaulan syövän seulontaohjelma on vähentänyt kohdunkaulan syövän ilmaantuvuutta ja kuolleisuutta Suomessa merkittävästi vuosikymmenten aikana. Koko Suomen laajuinen osallistumisaktiivisuus seulontaohjelmaan on 70 \% luokkaa. Seulonnan vaikuttavuus tarvitsee tällä hetkellä, uusien seulontatestien tultua käyttöön, HPV-rokoteohjelman alettua ja ilmaantuvuuden noustessa 30 - 40-vuotiaiden naisten keskuudessa, enemmän tutkimusta kuin koskaan. Tavoitteemme tässä opinnäytetyössä on kartoittaa kohdunkaulan syövän seulonnan tämänhetkistä vaikuttavuutta eri ikäryhmissä ja eri terveydenhuollon erityisvastuualueilla, sekä pohtia seulonnan tulevia suuntia. Tutkimme seulonnan vaikuttavuutta visualisoimalla ilmaantuvuus-, kuolleisuus- ja osallistumisaikasarjat ikäryhmittäin ja erityisvastuualueittain, sekä mallintamalla näiden aikasarjojen trendejä liikkuvien keskiarvojen avulla. Ilmaantuvuus- ja kuolleisuustasot, sekä niiden trendit ovat hyvin samankaltaisia eri erityisvastuualueiden välillä. Huolestuttava ilmaantuvuuden kasvu nuoremmissa ikäryhmissä on nähtävissä sekä valtakunnallisella tasolla, että eri alueiden yksittäisissä aikasarjoissa. Osallistumisaktiivisuus oli alhaisempaa nuorissa ikäryhmissä kaikilla eri erityisvastuualueilla, mutta osallistumisaktiivisuustrendien suunnat vaihtelivat alueittain. Tutkimme myös COVID-19 pandemian vaikutusta kohdunkaulan syövän seulonnan osallistumisaktiivisuuteen Suomessa vertailemalla vuosien 2019 ja 2020 kumulatiivista osallistumisaktiivisuutta. Kumulatiivinen osallistumisaktiivisuus oli huomattavasti pienempi vuonna 2020 kuin vuonna 2019. Tutkimuksemme, sekä aiempien tutkimusten, perusteella, seulonnan vaikuttavuudessa on eroja eri väestöryhmien ja maantieteellisten alueiden välillä Suomessa. Tulevaisuudessa meidän täytyy keskittyä näiden erojen kaventamiseen luomalla kattavampia, yhtenäisiä ohjeita seulonnan järjestäville kunnille ja lisäämällä yleistä tietoisuutta kohdunkaulan syövän seulonnan tärkeydestä.
Ohjelmistorobotiikkaan integroitu prosessilouhinta on tällä hetkellä vain suurten yritysten saavutettavissa kaupallisten toteutusten kalliin hinnan takia. Tämä diplomityö tutkii, onko avoimen lähdekoodin prosessilouhintatyökaluja mahdollista integroida kaupallisten ohjelmistorobotiikan työkalujen kanssa, mitkä ovat integraation vaiheet ja ovatko saavutetut lopputulokset hyödyllisiä ja käyttökelpoisia. Integraatioprosessia tutkittiin tapaustutkimuksena, jossa käytettiin kahta UiPath-työkalulla tehtyä ohjelmistorobotiikan prosessia. Integraatio toteutettiin tekemällä mukautettuja toimintoja, jotka liitettiin ohjelmistorobotiikan prosesseihin keräämään prosessilouhinnantarvitsemaa lokitietoa. Luotuja lokitietoja käytettiin syötteenä kahdelle prosessilouhintatyökalulle ProM:lle ja PM4PY:lle. Työkalujen lopputulosten hyödyllisyyttä ja käytettävyyttä tutkittiin asiantuntijahaastatteluilla. Avoimen lähdekoodin prosessilouhinnan työkalujen integroinnin havaittiin olevan mahdollista, sekä lopputulosten käyttökelpoista ja hyödyllistä. Käyttämällä ProM -työkalun valmista käyttöliittymää, oli mahdollista saada useita hyödyllisiä ja intuitiivisia visuaalisia esitystapojaprosesseille. Tämän diplomityön tulokset täten osoittavat, että on olemassa halvempi vaihtoehto kaupallisille prosessilouhinnan integraatioille ohjelmistorobotiikantyökaluihin.
Pääomasijoittaminen on kasvanut voimakkaasti viimeisten vuosikymmenien aikana, mikä on johtanut rahastokokojen nopeaan kasvuun erityisesti menestyvimpien rahastojen osalta. Aiempi kirjallisuus on enimmäkseen keskittynyt tutkimaan rahaston koon vaikutusta tuottoihin yleisellä tasolla, sekä muita rahastokokoon liittymättömiä ajureita rahaston tuottojen ja tuottojen pysyvyyden taustalla. Siitä huolimatta, että rahastokoon kasvattaminen on hyvin olennainen aihe, sen vaikutusta seuraavan rahaston tuottoihin yksittäisen GP:n näkökulmasta on tutkittu vain vähän. Tämä tutkimus tarkastelee rahastokoon kasvun ja seuraavan rahaston tuottojen välistä suhdetta eurooppalaisten buyout-rahastojen näkökulmasta. Tätä suhdetta tutkitaan analysoimalla, miten peräkkäisten rahastojen välinen kasvu vaikuttaa jälkimmäisen rahaston tuottoihin. Lisäksi tutkitaan alan kilpailutilanteen, peräkkäisten rahastojen päällekkäisyyden sekä GP:n osaamisen moderoivia vaikutuksia. Hypoteesit on muodostettu aiemman rahaston tuottoihin ja tuottojen pysyvyyteen liittyvän kirjallisuuden löydösten perusteella. Hypoteesien pitävyyttä testataan lineaarisella regressioanalyysillä käyttäen otosta, joka on kerätty Preqin-tietokannasta ja joka koostuu eurooppalaisten, 1985-2015 aikana kerättyjen buyout-rahastojen tuottodatasta. Datan mukaan menestyneimmät rahastomanagerit kasvattavat rahastojaan eniten, mutta samalla eniten kasvaneiden rahastojen tuotot myös heikkenevät eniten. Tämä tulkitaan usein todisteeksi sille, että rahastokoon kasvattaminen heikentää seuraavan rahaston tuottoja. Tämän tutkimuksen keskeisimmät tulokset kuitenkin osoittavat, että seuraavan rahaston tuottojen heikkeneminen aiheutuu edellisen rahaston ylituottojen palaamisesta kohti keskiarvotuottoja, eikä rahastokoon kasvusta. Rahastokoon kasvun negatiivinen vaikutus on minimaalinen ja tilastollisesti merkitsemätön. Tulokset tarjoavat GP:ille ja LP:ille arvokasta tietoa heidän tehdessä rahastokoon kasvattamiseen liittyviä päätöksiä.
Rasteroitujen ja skannattujen rakennuspiirustusten vektorointia tutkittiin CNN ja U-Net -neuroverkkoihin perustuvilla menetelmillä, joita verrattiin myös kirjallisuuskatsauksessa löydettyihin perinteistä kuvankäsittelyä käyttäviin malleihin. Työssä esittämäni uusi CNN-malli sisältää vain 9 miljoonaa parametria ja se pääsee 90 % tarkkuuteen ulko- ja sisätilojen, seinien, ikkunoiden ja ovien segmentoinnissa rakennuspiirustuskuvista. Paras aiempi toteutus pääsee 93 % tarkkuuteen, mutta vaatii 17 miljoonaa parametria ja rajoittuu raskautensa vuoksi vain varsin pienikokoisten taikka matalaresoluutioisten kuvien käsittelyyn. Molemmat neuroverkkomallit kykenevät huomattavan joustavaan erityyppisten kuvien analyysiin suhteellisen vähäisin virhein, mikä on selkeä ero suhteessa perinteisiin menetelmiin. Oma verkkoni käyttää kertolaskua erillisten laajan skaalan ja paikallisen korkearesoluutioisen käsittelypolun yhdistämiseen, siten että molempien tulee olla aktivoituja, jotta verkko tuottaisi tunnistuksen tietyssä kohdassa. Molemmat verkot ovat saatavilla esikoulutettuina PyTorchille, siten että niitä voi helposti lisäkouluttaa uusien symbolien löytämiseksi. Esitän uuden algoritmin geometrian muodostamiseen em. rakennetyyppikartasta siten, että ulkoseinät kuvataan polygonina, jolle ovet ja ikkunat on merkitty. Uusi algoritmi käsittelee myös muussa kuin suorassa kulmassa olevat seinät sekä kaarevat seinät, joita ei ole voinut aiemmilla menetelmillä käsitellä. Algoritmi edellyttää seinien tunnistusta, johon voidaan käyttää joko tässä työssä kehitettyä neuroverkkoa tai aiempaa toteutusta. Rakennuksen tehontarvelaskenta, jota tarvitaan energiasertifikaatteihin ja suunnittelukäyttöön, esitetään käytännöllisenä sovelluksena piirustuksista pure-tulle geometriatiedolle. Tuloksena saatava laskelma syntyy nopeasti ja sillä välitetään suunnittelijan työ, jossa jouduttaisiin alkuperäisestä piirustuksesta mittaamaan ja merkitsemään kyseiset elementit. Geometriatietoa voidaan hyödyntää myös CAD-kuvien tai 3d-mallien tuottamiseen, joille on huomattavaa kaupallista kysyntää mm. asuntokaupassa ja teknisissä suunnittelutöissä.
Quasiconformal (QC) mappings generalize conformal mappings. Since their introduction in the 1930s, QC mappings have become a versatile tool in various fields of mathematics, ranging from PDEs to holomorphic dynamics. This thesis is an exposition of the five most widespread descriptions of QC mappings in the plane, as well as the most valuable properties thereof. We present a proof of the equivalence of the three main definitions: the metric, analytic, and geometric. Two additional characterizations are discussed in detail. The first is the partial identification of QC mappings with quasisymmetric mappings. This is done via conformal invariants. Once this identification is obtained, we use it to demonstrate that QC maps form a pseudogroup. We also use quasisymmetries to obtain the compactness properties of certain families of QC maps. Further, we demonstrate, using complex variables, several analytic properties, such as the change of variables and area formulae. We present a proof of the Measurable Riemann Mapping Theorem, which identifies quasiconformal mappings as the solutions of the Beltrami's equation - this is the fifth characterization. It is the interplay between the alternative characterizations that is arguably the most prominent feature of QC mappings. For this reason, an emphasis is put on highlighting the relationships between various descriptions and approaches to proofs.
Text-to-image generation remains challenging and comprehensive task in the area of generative models. In this work, we considered a recently proposed approach, called DALL-E. This model is based on two popular neural network architectures - Discrete Variational AutoEncoder and Transformer. The variability of possible Transformer configurations opens up an opportunity to explore the influence of different architectural choices on the model's performance. We concentrated on the way, how DALL-E processes the input sequence of text and image tokens. More specifically, we tried to check if there is any systematic advantage of using a separate text encoder instead of processing both data modalities (text and image) by the same autoregressive component (Transformer encoder). Additionally, we performed an analysis of different types of Discrete Variational AutoEncoders. For the purpose of comparison between different Transformer components of the DALL-E approach, we created a specific dataset, that we called Multi-Descriptive MNIST. This dataset consists of the descriptions and corresponding images with sequences of digits with different characteristics, like color, size or location of the canvas. Also, we conducted some experiments on the CUB dataset, that consists of birds images with corresponding textual descriptions. Finally, we developed a set of specific metrics, to compare the quality of the generated images. Since text-to-images task implies that text provides us the control over the generation process, we concentrated on the measurement of the consistency between the text and images, that are generated by this text. The idea behind the proposed metrics relies on the Contrastive Language–Image Pre-training (CLIP) model, that was recently introduced as a way to perform image classification based on the relevance between images and texts. Based on the conducted experiments, we found a statistically significant advantage of using separate text encoder for the DALL-E approach over the original method on the specifically prepared artificial dataset. Also, the model with separate text encoder was trained on CUB dataset from scratch to generate images of birds consistent with the given text.
Kvantti-inormaatioteoriassa tutkitaan, kuinka kvanttimekaniikan ilmiöitä voidaan käyttää tietojenkäsittelytehtävien ratkaisemiseen. Kvanttimekaanisten ominaisuuksien hyödyntäminen voi johtaa siihen, että kvantti-informaatioprotokollat ovat tehokkaampia kuin niiden klassiset vastineet. Jatkuvan muuttujan tilat tarjoavat houkuttelevan alustan erilaisten kvanttitietoprotokollien toteuttamiseen. Tässä Msc työssä osoitamme, miten Josephsonin liitokseen perustuvien Parametristen Oskillaattoreiden (JPO) avulla voidaan tuottaa moniosaisia lomittuneita jatkuvan muuttujan tiloja, joita voidaan käyttää kvanttiresurssina kvantti-informaatioprotokollissa. Kun JPO:ta ajetaan samanaikaisesti kahdella eri pumpputaajuudella, saadaan aikaan kolmiosainen lomittunut tila. Kolmiosaisen tilan lomittumisominaisuudet sisältyvät kokonaisuudessaan 6x6-kovarianssimatriisiin. Sovellamme kovarianssimatriisiin erilaisia lomittumiskriteerejä osoittaaksemme, että luotu tila on aidosti kolmijakoisesti lomittunut.
Kun organisaatiot muuttavat strategiaansa, he voivat esitellä organisaatioon uuden strategisen konseptin. Tapa miten organisaatio hyväksyy tai hylkää uuden strategisen konseptin voi määritellä kuinka hyvin strategian julkaisu onnistuu. Olemassa oleva akateeminen kirjallisuus on korostanut strategisten konseptien ja tolkuntekemisen (engl. sensemaking) yhteyden, sekä tolkuntekemisen ja organisaatiokulttuurin muutoksen, mutta olemassa oleva tieto tietää vielä rajallisesti strategisten konseptien ja organisaatiokulttuurin muutoksen suhdetta. Tässä yhden organisaation induktiivisessa kvalitatiivisessa case-tutkimuksessa tutkitaan kuinka monikansallinen yritys, nimeltään EngCorp, otti käyttöön kestävyyden uutena strategisena konseptina. Tässä diplomityössä haastateltiin 33 henkilöä maailmanlaajuisesti, yrittäen ymmärtää miten kestävyys strategisena konseptina otettiin vastaan, ja millaisia muutoksia se aiheutti yrityksen kulttuurissa, toiminnassa sekä millaisia haasteita se aiheutti organisaatiolle. Tämän yhtiön tilanteessa ympäröivät strukturaaliset ja kulttuurisesti paineet uuden strategisen konseptin lisäksi loivat liikaa epävarmuutta organisaation kontekstiin, eikä johdon tolkunantamisen (engl. sensegiving) toimet riittäneet tasapainottamaan tätä epävarmuutta, joka heijastui työntekijöiden tolkuntekemisen (engl. sensemaking) prosessiin. Tästä syystä EngCorp kulttuurisesti hylkäsi uuden strategisen konseptin. Tämän tutkimuksen keskeinen löydös muodosti linkin olemassa olevan tutkimustiedon strategisten konseptien, tolkuntekemisen prosessin sekä organisaatiokulttuurin muutoksen välille. Löydökset osoittavat, että työntekijöiden tolkuntekemisen prosessin lopputulos määrittelee uuden strategisen konseptin kulttuurisen hyväksymisen. Tämä löydös toimii osana kehittyvää organisaatiomuutoksen aikakautta, jossa strategisten konseptien ja organisaation kulttuurisen muutoksen välille muodostetaan yhteys. Tämän diplomityön muodostama malli nostaa esiin tolkuntekemisen ajallisen ja ryöppyävän luon-teen, mikä puolestaan kehittää tolkuntekemisen kasvavaa teoriatarjontaa. Tämän tutkimuksen löydökset osoittavat, että työntekijöiden tolkuntekemisen prosessissa työntekijät pyrkivät ymmärtää strategisen konseptin vaikutuksia menneisyydessä, nykyisyydessä ja tulevaisuudessa. Tolkuntekemisen ryöppyävä luonne esimerkillistää prosessin, jossa tolkuntekeminen tapahtuu
This thesis studies the connectivity of passive random intersection graphs. In addition to this, it studies the connectivity of an intersection between a passive random intersection graph and an Erdős–Rényi graph. Random intersection graphs can be used to model many real-life phenomena. For example, social networks and communication in sensor networks can be modelled by random intersection graphs. A random intersection graph is a random graph, where nodes are assigned attributes according to some random process. Two nodes are connected by an edge if they have at least one attribute in common. For a passive random intersection graph, each attribute is given a number according to some probability distribution. Each attribute then chooses that number of nodes, uniformly at random from the whole set of nodes. The chosen nodes are given the respective attribute. Two nodes are thus connected, if at least one attribute chooses them both. This thesis presents zero-one laws on passive random intersection graphs being connected and not having isolated nodes. This thesis also presents zero-one laws on the intersection between a passive random intersection graph and an Erdős–Rényi graph being connected and not having isolated nodes.Denna avhandling undersöker när en passiv slumpsnittgraf är sammanhängande. Avhandlingen undersöker dessutom, när snittet av en passiv slumpsnittgraf och en Erdős–Rényi graf är sammanhängande. Slumpsnittgrafer kan användas för att modellera flera riktiga fenomen. Till exempel kan sociala nätverk och kommunikation i ett sensornätverk modelleras med slumpsnittgrafer. En slumpsnittgraf är en slumpgraf, där noder blir givna egenskaper enligt någon slumpprocess. Två noder har en båge mellan sig om de har minst en gemensam egenskap. I en passiv slumpsnittgraf blir varje egenskap given ett eget nummer, detta nummer följer någon sannolikhetsfördelning. Efter detta väljer varje egenskap, numrets antal noder jämnt slumpmässigt från hela mängden noder. De valda noderna blir givna motsvarande egenskap. Två noder har alltså en båge mellan sig om åtminstone en egenskap väljer dem båda. I denna avhandling presenteras en lag för när stora passiva slumpsnittgrafer är sammanhängande och inte har isolerade noder. Dessutom presenteras en lag för när snittet mellan stora passiva slumpsnittgrafer och Erdős–Rényi grafer är sammanhängande och inte har isolerade noder.
The management of physical infrastructure assets is crucial to the operation of modern societies. For example, environmental concerns and increasing competition means that decision makers need to consider multiple non-trivial causal relationships. Thus, mathematical modeling may bring substantial benefits to aid decision making. Asset management problems are typically characterized by multiple objectives, multiple periods, uncertainty, disruptions and risk management. The main tool of this thesis is the Decision Programming framework combined with influence diagrams. The unit of analysis is a single asset, for which optimal asset management strategies are determined. The asset management strategies consider, for example, asset condition, asset performance, failures, planned maintenance and reactive maintenance. Furthermore, chance constraints are utilized to solve asset management problems under uncertainty. Asset portfolio management problems are addressed with the use of a multi-level model in which assets are classified according to their types and categories. The portfolio problems are solved by combining optimal single asset maintenance strategies while considering the effects of, for example, diversification and joint probability distributions. The conceptual framework developed in this thesis was also discussed with the Finnish Transport Infrastructure agency and it was considered to be relevant. All in all, the results of this thesis indicate that asset portfolio management based on the Decision Programming framework and influence diagrams is viable and effective.Förvaltning av fysiska infrastrukturtillgångar är en central aspekt i ett fungerande modernt samhälle. Exempelvis innebär ökad miljöhänsyn och ökad konkurrens att beslutsfattare måste ta hänsyn till flera icke-trivial orsakssamband. Matematisk modellering kan därför ge betydliga fördelar för att underlätta beslutsfattandet. Tillgångsförvaltningproblem kännetecknas vanligtvis av flera kriterier, flera perioder, osäkerhet, störningar och riskhantering. Viktigaste verktyget i denna avhandling är ''Decision Programming'' ramverket i samband med så kallade inflytandediagram. Analysenheten är en enskild tillgång, för vilken optimala förvaltningsstrategier, i stället för enbart underhållsbeslut, bestäms. Strategierna tar i beaktande tillgångens skick, prestanda och planerat samt reaktivt underhåll. För att lösa tillgångsförvaltningsproblem på en portfolienivå klassifieras tillgångar först enligt deras typ samt kategori. Portföljproblemen löses sedan genom att kombinera optimala förvaltningstrategier för enskilda tillgångar samtidigt som effekterna av t.ex. diversifiering och gemensamma sannolikhetsfördelningar beaktas. Konceptuella ramverket som utvecklades i denna avhandling diskuterades med Trafikledsverket och ansågs vara relevant. I sin helhet visar resultaten att tillgångsförvaltning baserat på ''Decision Programming'' och inflytandediagram är genomförbart och effektivt.
Suurten määrien dataa tuottavien ja toisiinsa yhteydessä olevien laitteiden määrän kasvaessa nousee esiin tarve hajautetuille koneoppimismenetelmille. Yhteydet laitteiden välillä voivat tarkoittaa, että laitteilla on samankaltaisia tilastollisia omi- naisuuksia, mikä puolestaan johtaa siihen, että laitteet muodostavat ryhmitellyn samankaltaisuusverkon. Hajautettu oppiminen verkossa on koneoppimistekniikka, joka mahdollistaa personoitujen ennustamismallien oppimisen samankaltaisuusverkon perusteella, ilman että laitteiden dataa tarvitsee siirtää keskitetylle palvelimelle. Ryhmiteltyjen samankaltaisuusverkkojen rakenteen vaikutusta hajautettujen koneoppimismenetelmien suorituskykyyn ei olla tutkittu yksityiskohtaisesti. Tässä tutkielmassa esitellään täysin hajautettu koneoppimisalgoritmi (NFLA), joka käyttää gradienttimenetelmää sekä mukautuvaa laitekohtaista askelpituutta personoitujen lineaaristen mallien oppimiseksi. Verkon klusterien rakenteiden vaikutusta algoritmin tarkkuuteen ja suppenemisasteeseen tutkitaan käyttämällä NFLA:ta stokastisiin lohkomalleihin, joissa laitekohtainen data luodaan synteettisesti. Työssä tutkitaan lisäksi sitä, parantaako samankaltaisuusverkon käyttäminen hajautettujen koneoppimismallien suorituskykyä vertailemalla NFLA:ta hajautettuun klusterointialgoritmiin, joka ei edellytä samankaltaisuusverkon tuntemista. Empiiristen kokeilujen tulokset osoittavat, että verkon ryhmitelmien määrällä on suurin vaikutus NFLA:n tarkkuuteen. Seuraavaksi suurin vaikutus on ryhmitelmien välisillä yhteyksillä, ja pienin vaikutus ryhmitelmien sisäisillä yhteyksillä. Algoritmin suppenemisasteeseen vaikutti eniten laitteiden yhteyksien kokonaismäärä ja toisekseen ryhmitelmien lukumäärä. Vertailukokeilu osoitti, että samankaltaisuusverkon käyttäminen voi merkittävästi parantaa hajautettujen koneoppimismenetelmien tarkkuutta ja vähentää varianssia tarkkuudessa.
Tiivistelmä Taidetta ylistetään usein sen kyvystä tuottaa syvämielisiä tunteellisia kokemuksia, jotka voivat muuttaa meitä ihmisinä ja muovata perspektiivejämme elämään. Tämä opinnäytetyö kohdistui tutkimaan autoetnografian kautta miten tällainen transformatiivinen voima voisi ilmentyä videopeleissä kehittyvänä digitaalisen median muotona. Tutkimusta varten pelasin viittä eri kriitikoiden ylistämää peliä pyrkimyksenäni tunnistaa ja taltioida transformatiivisia kokemuksia keräämällä sekä introspektiivista että retrospektiivistä henkilökohtaista dataa pelikokemuksistani kenttämuistiinpanojen, reflektiivisten päiväkirjojen, sekä muistioiden muodossa; nämä viisi peliä jotka sisältyivät tutkimukseen olivat God of War, Doki Doki Literature Club!, The Stanley Parable, Bloodborne, ja The Beginner’s Guide. Havaitsin emotionaalisesti syvämieliset kokemukseni peleistä Doki Doki Literature Club! ja The Beginner’s Guide olevan transformatiivisia; molemmat pelikokemukset laajensivat suuresti ymmärrystäni videopeleistä digitaalisen median muotona, mutta myös välittivät minulle uudenlaisia perspektiivejä aiheisiin kuten masennus ja luovuus, sekä kehittivät kapasiteettiani empatiaan ja itseymmärrykseen. Tarkempi henkilökohtaisen datan analyysi ja tulkinta johtivat tunnistamaan neljä kattavaa teemaa, jotka erottivat transformatiiviset pelikokemukseni ei-transformatiivisista; näitä neljää teemaa voidaan luonnehtia seuraavasti: (1) korostunut ”kognitiivisen ja emotionaalisen osallistumisen” tila, (2) käsitys ”omana itsenä pelaamisesta”, (3) vaikutelma ”epäkonventionaalisesta pelisuunnittelusta”, ja (4) pelin jälkeinen ”uudelleensitoutuminen pelikokemukseen”. Tarkastelin sitten kyseisiä teemoja laajemmassa kontekstissa, käsitellen niiden suhdetta aiempaan kirjallisuuteen sekä niiden mahdollisia laajamittaisempia implikaatioita transformatiivisiin pelikokemuksiin liittyen. Vaikuttaa siltä, että useat transformatiivisten pelikokemusteni aspekteista voisivat potentiaalisesti vastata konsepteja, joita empiirisen estetiikan tieteenalalla on käytetty mallintamaan transformatiivisia taidekokemuksia, mutta jatkotutkimukselle on tarvetta.
Kehitämme menetelmän symmetrisen Poissonin yhtälöä lokaaliin approksimointiin yksikköneliössä käyttäen numeerista satunnaislineaarialgebraa. Lokaali Poissonin yhtälö jaetaan kahteen osaan: yhteen, millä on epätriviaali riippuvuus osittaisderivaatoista ja triviaali reunaehto, ja toiseen, millä on triviaali riippuvuus osittaisderivaatoista ja epätriviaali reunaehto. Ensimmäisen osan voi ratkaista numeerisesti suoraan elementtimenetelmällä, mutta jälkimmäisen osan ratkaisu vaatii uudenlaisen lokaalin operaattorin määrittelyä. Tämä operaattori todistetaan kompaktiksi, ja sen singulääriarvot vaimenevat vähintään eksponentiaalisti. Näiden ominaisuuksien takia operaattorin matriisimuoto on helppo approksimoida matala-ulotteisesti. Perinteiset matriisien approksimenetelmät ovat kuitenkin liian kalliita, jonka takia käytämme satunnaislineaarialgebran algoritmia löytämään diskretisoidun operaattorin arvojoukon tärkeimmät osat. Kehitämme myös tehokkaan iteratiivisen pysähdysehdon kyseiselle algoritmille. Tällä matalauloitteiselle matriisilla pakkaamme elementtimenetelmän lineaarisen yhtälöryhmän pienemmäksi ja saamme ratkaistua lokaalin epätriviaalin reunaehdon tehokkaasti. Numeeriset kokeet vahvistavat virheiden teoreettiset raja-arvot maltillisilla toleransseilla.
Hiljattain Flores ja Peltola esittelivät uuden Temperley-Lieb -algebran variantin nimeltään Jones-Wenzl -algebra. Se on Temperley-Lieb -algebran osajoukko, joka saadaan eräiden Jones-Wenzl -projektorien toiminnoista Temperley-Lieb algebraan. Jones-Wenzl -algebra esiintyy luontaisesti konformikenttäteorian ja statistisen fysiikan sovelluksissa, ja se on merkittävässä roolissa kvanttiryhmien esitysteorian ymmärtämisessä. Jones-Wenzl -algebran yleistä esitysteoriaa ei toistaiseksi tunneta. Tässä diplomityössä keskitytään kaksoisprojektorialgebran (double projector algebra) esitysteoriaan; kaksoisprojektorialgebra on yksinkertaisempi tapaus Jones-Wenzl -algebrasta. Kaksoisprojektorialgebran esitysteorian ymmärtäminen voidaan pitää ensimmäisenä askeelena kohti yleisemmän Jones-Wenzl -algebran esitysteorian ymmärtämistä. Kaksoisprojektorialgebran esitysteorian esittämiseen käytetyt tekniikat muistuttavat Langlois-Rémillardin ja Saint-Aubinin käyttämiä tekniikoita. He esittelivät reunasaumaalgebran (boundary seam algebra) esitysteorian, missä reunasauma-algebra on toinen Temperley-Lieb -algebran yksinkertainen variantti. Erityisesti Grahamin ja Lehrerin sellulaaristen algebrojen teoriaa käytetään ekstensiivisesti tulosten saavuttamiseksi.
A web-based platform staffing software is developed to aggregate public IT projects from different sources and match freelance IT professionals to projects. The match- making algorithm is vital for the platform’s ability to offer value for both the companies and the freelancers. Developing such an algorithm comes with its set of challenges. First, it is challenging to parse bilingual free-form text into a pre- defined set of project attributes. The second challenge is balancing the match-making algorithm’s precision to offer high-quality matches. The platform relies heavily on automation. Searching newly posted projects on different sources and matching freelancers to newly found projects is automated. The thesis covers the development process of the hiring platform’s beta version as well as the optimizing process of the algorithm’s parameters to improve the matches’ quality. The match-making algorithm parameters are tested using the A/B testing methodology to improve the platform’s matches’ quality and help retain users. The platform is developed using the latest web technologies and modern software practices. Also, the service design focuses on the user experience of the freelancers registered with the platform.