Kaikki aineistot
Lisää
Siirtymävaihe aiemmista opinnoista yliopistoon on monelle haasteellinen, ja yliopistot pyrkivätkin tukemaan opiskelijoita opintojen aloittamisessa ja yliopisto-opiskeluun sopeutumisessa. Tässä artikkelissa esitellään yksi opiskelijoiden tukemiseksi tehty kokeilu tutkimusperustaisesta näkökulmasta ja tarkastellaan sen vaikuttavuutta. Tarkastelussa ovat Tampereen yliopistossa syksyllä 2019 tekniikan alojen kandidaattiopiskelijoiden ensimmäisillä matematiikan kursseilla käyttöön otetut uudet tukimateriaalit ja niihin liittyvät tukiharjoitukset. Tukiharjoituksiin osallistumista ja sen vaikutusta kurssin arvosanaan sekä opiskelijoiden kokemuksia tukiharjoituksista ja -materiaaleista tutkittiin syksyn 2019 aikana. Tutkimuksessa havaittiin, että tukiharjoituksiin osallistui noin 11 prosenttia kurssin opiskelijoista ja osallistuminen vaikutti positiivisesti kurssin arvosanaan. Tukimateriaalit ja -harjoitukset koettiin toimiviksi ja hyödyllisiksi.
Maailmanlaajuinen COVID-19-pandemia siirsi korkeakouluopetuksen nopeasti verkkoon vuonna 2020. Opettajien oli tehtävä nopeasti päätöksiä periaatteista, joiden pohjalta etäopetus ja arviointi järjestetään. Tässä artikkelissa kuvataan XX yliopiston Algoritmimatematiikka 1 -opintojakson opetusta ja arviointia (pienryhmätoiminta, harjoitukset ja etätentti) pandemian aikana. Tutkimuksessa selvitettiin, kuinka opiskelijat kokivat etätentin reiluuden ja mahdollisuuden näyttää osaamistaan etätentissä sekä edistikö pienryhmätoiminta ja etäharjoitukset oppimista. Lisäksi haluttiin selvittää, millaisilla keinoilla oppimisen ja reiluuden kokemusta voitaisiin jatkossa etäopetuksessa parantaa. Lopputuloksina saatiin konkreettisia kehitysideoita ja -kohteita.
Over recent years, data-intensive science has been playing an increasingly essential role in biological discovery and biomedical science. The explosion of information in biology poses challenges in organizing data, discovering relevant information from the data, extracting salient features, and providing a comprehensive understanding of the overall biological process. Traditional manual approaches are no longer a feasible solution due to the heterogeneous, complex and unstructured nature of the biological data. Therefore, a framework for efficient, robust, automated, and fast data-intensive methods and pipelines are required to handle and explore these data.<br/><br/>The field of machine learning provides a comprehensive array of computational tools for analyzing such data. The aim of this thesis is to learn a simple model from such biological data, where the learned model illustrates an overview of the underlying data-generating process. This, in turn, should allow the extraction of salient features for predictive analysis of unobserved data. In this thesis, we consider solving the biological problem from the context of the dimension of the data. High-dimension data refers to the phenomenon where the number of data points is larger than the features describing the data points, or vice versa, or both. High-dimensionality can lead to the risk of overfitting of the model, a phenomenon in which the performance of the model is poorly described for the predictive analysis of unobserved data.<br/><br/>To this end, an attempt to add additional information or to modify the learning algorithm, a strategy known as regularization, is indispensable to increase the generalization capability of the model. The results of this study indicate that a regularized version of simple linear models often outperforms more sophisticated methods. Moreover, implicit automated feature-selection capabilities in sparse regularized parameter estimations have made a significant contribution to the thesis. We also utilize a powerful ensemble tree-based method, random forest, which is effective for discovering nonlinear relationships among features as well as providing feature ranking.<br/><br/>Another important aspect in the learning process considered in this thesis is model selection i.e., the selection of one model from a hypothesized set of possible models. The set of candidate models is constructed by setting different values for the models’ hyperparameters before initializing the learning process. It is shown that an alternative Bayesian approach is computationally faster and has lower error rates than the traditional approaches to model selection, such as grid search and cross-validation. Moreover, we propose a closed-form expression for the area under the receiver operating characteristic curve, a performance metric, in the context of a linear classifier.<br/><br/>In addition, we consider the unsupervised machine-learning paradigm in which the ground truth of biological data is not provided, such as for microarray gene expression profiling. The results show that clustering methods can be used effectively to explore the data and discover similarities. Our results indicate that careful selection of the machine-learning approaches can create powerful, yet simple computational modeling and analysis that can provide new and useful insights into heterogeneous biological applications.
This paper aims to establish and expand the idea of punk gamification, in dialogue with the other two provocations in this issue of DigitCult. It starts by outlining the main criticisms that can be moved to the mainstream understanding of gamification, namely the fact that it is a tool to gain power over users and that it can hinder critical thinking by naturalising the users' actions. Subsequently, the paper argues for the necessity of a punk approach to gamification, based around the freedom of the users and on a non-utopian view of play. After having established the core idea of punk gamification, it proceeds by applying it to Alternate Reality Games, so as to underline the importance to include new forms of co-creation and participation. Finally, it engages with the figure of the "zombie" and with the playful practices related to it, positioning the latter among the strategies of urban gamification that can allow citizens to reclaim the environments of the city. In conclusion, punk gamification can be described as an effort of resistance against the neoliberal trend attempting to sanitize and domesticate play, and instead claim its disruptive and social potential.
This paper proposes a reflection on the notion of island and on its cultural productivity grounded in its morphological, logistical and symbolical features. First of all, we present a brief overview of the semiotic properties of water, underlining how it affects anthropic spaces such as cities and the way we interpret them. The second paragraph is dedicated to rethinking the relationship between semiotics and logistics, avoiding any reductionist or hypodermic approach, but taking into account the importance that viability has on semiosphere dynamics. In the third paragraph, we have constructed a typology of islands — real and fictional — based on the perviousness of the channel that connects them to land and on their connotations as examples of the ideological nature/culture dichotomy. Finally, in the conclusions, we have expanded these considerations to the metaphorical uses of the concepts of island and isolation, arguing that they constitute fundamental semiotic cultural unities.
Uutisten verkkokommentoinnin kielteistä ilmapiiriä ja asiattomia kommentteja pidetään vakavana, julkisen keskustelun laatua heikentävänä ongelmana. Keskustelujen moderointia pidetään yleisesti hyvänä tapana puuttua asiattomuuksiin, mutta sen nykyiset keinot koetaan riittämättömiksi, olipa kyse tietokoneohjelmista tai ihmisten tekemästä moderointityöstä. Artikkelissa esittelemme uutiskommenttien moderointia käsittelevää aikaisempaa tutkimusta sekä tarkastelemme aihetta empiirisesti analysoimalla viittä eri mediataloa edustavan suomalaisen media-alan ammattilaisen näkemyksiä ja kokemuksia verkkokommenttien moderoinnista, keskittyen erityisesti kommenteissa esiintyvien tunteiden rooliin. Analyysin pohjalta kommenteista ja niiden moderoinnista piirtyy ristiriitainen kuva. Yhtäältä kommentteja arvostetaan yleisön osallistumisen muotona ja niiden tunnesisällön koetaan lisäävän keskustelun vetovoimaa. Toisaalta moderointi koetaan vaivalloisena ja journalistisesta perustyöstä erillisenä tehtävänä ja kommentit liian negatiivisina. Myös moderoinnin ja journalismin vaaliman ilmaisunvapauden suhde näyttäytyy jännitteisenä. Tietokoneavusteinen moderointi puolestaan koetaan hyödylliseksi, mutta sitä pidetään myös epätarkkana. Näitä havaintoja vasten pohdimme, millaista uutiskommenttien moderointi voisi tulevaisuudessa olla suomalaisella mediakentällä. Esitämme, että tehokkuutta tavoittelevan moderoinnin lisäksi käytössä olisi hyvä olla keinoja, jotka tarttuvat asiattomaan kommentoitiin pehmeämmin kuin sisältöä poistamalla.
This paper aims to propose a general reflection and an update on urban semiotics. It proposes a brief history of the discipline, with a particular attention to the contributions of Ugo Volli. The paper then proposes that the dimension of play is becoming one of the most important in urban areas and that therefore it could constitute an important research direction.
Yhdysvaltalaiset Vietnamin sota -elokuvat ovat muokanneet mielikuvia sodasta ja toimineet välineinä kansakunnan menneisyyden hallintaan. Tarkastelemme artikkelissamme Francis Ford Coppolan ohjaamaa Ilmestyskirja. Nyt -elokuvaa (Apocalypse Now, 1979) Vietnamin sodan historiatulkintana. Keskitymme artikkelissamme Ilmestyskirjan historialliseen kontekstualisointiin, jossa sitä tarkastellaan suhteessa Vietnamin sodan ja Hollywoodin Vietnam-kuvausten historiaan. Pohdimme myös Ilmestyskirjan imperialismisuhdetta ja sen luonnetta sotaspektaakkelina. Coppolan Ilmestyskirjan monivaiheinen käsikirjoitus- ja tuotantoprosessi kesti yli vuosikymmenen. Käytämme lähteenämme alkuperäisen teatterilevitykseen tuotetun version (1979) ohella vuonna 2001 julkaistua Redux-versiota. Historialliset elokuvat, jollainen Ilmestyskirjakin on, ovat kertomuksia historiasta ja ovat historiapolitiikan ohella osa historiakulttuuria. Yhdysvaltojen käymän Vietnamin sodan tosiasiallista historiaa katsotaan yhä enemmän elokuvien välittämien representaatioiden luoman harson läpi. Ilmestyskirjan yksittäiset kohtaukset ja sitaatit ovat toistuvien viittausten kohteena populaarikulttuurissa. Analysoimme erityisesti Redux-version ”plantaasikohtausta”, joka kytki tarinan alkuperäisversiota syvemmin Vietnamin sodan, imperialismin ja dekolonisaation historiapoliittiseen kontekstiin. Argumenttimme on, että Ilmestyskirja sekä reflektoi Vietnamin sodan historiaa että osallistui sen ”kirjoittamiseen”, mutta taiteellisuutensa vuoksi enemmän historiakulttuurisena kuin -poliittisena tulkintana Vietnamin sodasta. Coppolan elokuva onkin imperialistinen trippi Yhdysvaltain lähimenneisyyteen.
Tässä tutkimuksessa tarkastellaan kahden erilaisen opetusmenetelmän ja erityyppisten oppimistehtävien tekemisen yhteyttä oppimistuloksiin ensimmäisen vuoden korkeakouluopiskelijoiden matematiikan opintojaksoilla. Tutkimuksessa vertaillaan kahta opiskelijaryhmää: testiryhmää, jonka opetus perustui käänteisen oppimisen malliin, ja vertailuryhmää, jonka opetuksessa yhdistyivät luennot, harjoitukset ja itsenäinen työskentely. Tutkimuksessa tarkastellaan erityyppisten oppimistehtävien tekemisen vaikutusta oppimistuloksiin erityisesti niillä korkeakouluopiskelijoilla, joilla saattoi alkutestin alhaisen pistemäärän perusteella arvioituna olla puutteita matematiikan lähtötiedoissa. Tulokset osoittavat, että käänteisen oppimisen mallilla opiskelijat saavuttivat tenttipisteillä arvioituna hieman heikompia oppimistuloksia kuin luentopohjaisella mallilla opiskelleet. Tuloksista kävi myös ilmi, että oppimistehtävien tekeminen ja opetusvideoiden katsominen vaikuttivat positiivisesti oppimistuloksiin ja että aktiivisesti työskentelemällä myös lähtötasoltaan heikommat opiskelijat saattoivat menestyä odotettua paremmin. Oppimistehtävätyypeistä testiryhmässä oppimistulosten kanssa korreloivat eniten käsitteellisiä tehtäviä sisältävät verkkotehtävät, kun taas vertailuryhmässä suurempi korrelaatio oppimistulosten kanssa oli perinteisemmillä laskutehtävillä, joita heille oli tarjolla määrällisesti enemmän.
Recent advances in artificial intelligence (AI) offer many opportunities to implement it in a broad range of industries. One of the main ambitious application of AI is in healthcare and patient monitoring. In healthcare industry, unlike the most commercial applications of AI, a missed detection/prediction of a clinical event may result in the death of a patient. Moreover, a high false alarm rate may lead to misdiagnosis causing extra effort and cost for care providers. Thus, in healthcare applications, it is required to strictly minimize the number of false alarms without sacrificing the sensitivity rate of the detection system. This dissertation focuses on epileptic seizure detection and classification in long-term electroencephalogram (EEG) records. More specifically, the two main challenges in supervised EEG seizure detection, the curse of dimensionality and the curse of variability are tackled.<br/><br/>First, a signal decomposition technique, applicable to physiological signals, is devised which can be used as a preliminary step for feature extraction. This is performed by proposing a novel time-frequency transform based on rational functions, namely, rational short time Fourier transform (RSTFT). A sparse decomposition method is then proposed by reconstructing the input signal into several components using non-overlapping sub-sets of the RSTFT coefficients. Sparse representation of signal components is then obtained by inducing L1 regularization penalty on the RSTFT coefficients during the reconstruction phase. The effectiveness of the proposed sparse decomposition method is evaluated in the classification of long-term EEG records for purposes of epileptic seizure detection and sleep stage scoring.<br/><br/>Another part of the thesis investigates the detection of seizures in textural images constructed using a proposed scheme for mapping of EEG signals into gray-scale image domain. The proposed mapping strategy makes it plausible to correlate textural changes of the obtained images with seizure activities in EEG records. The textural analysis is then carried out using the well-known gray-level cooccurrence matrix (GLCM) and Haralick’s feature extraction method resulting in a compact representation of EEG epochs. All the methods proposed in this thesis are evaluated using public EEG data-sets freely available on-line. The results obtained by the proposed methods are comprehensively compared with the other conventional dedicated feature extraction techniques using several classifiers.<br/><br/>The main contribution of the thesis is in the adaptation of conventional feature extraction techniques, commonly used in the textural analysis of images, to be applicable in EEG signal analysis. Additionally, the discriminatory power of feature descriptors is improved by representing EEG signals using their sparse rational components. The proposed rational local Gabor binary pattern (LGBP)-width feature outperforms competing methods in both seizure detection and classification problems. Moreover, its perform consistency in patient/non-patient specific scenarios demonstrates its ability to tackle the curse of variability in seizures.
Työnhaku on siirtynyt verkkoon ja rekrytointi entistä enemmän digitaalisten sovel-lusten tukemaksi. Tarkastelemme tässä katsauksessa algoritmien roolia sekä työn-haussa että rekrytoinnissa erityisesti yhdenvertaisuuden mutta myös laajemmin digietiikan näkökulmista. Algoritmeilla tarkoitetaan listaa ohjeista, joilla tieto-koneiden ja sovellusten toimintaa ohjataan. Ne ovat kaikkien työnhaussa ja rekry-toinnissa käytettävien sovellustentoiminnan perusta. Tekoäly puolestaan imitoi algoritmien pohjalta ihmisten tapaa tehdä päätöksiä hyödyntäen esimerkiksi koneoppimista. Uusien digitaalisten järjestelmien käyt-töönotolla on moninaisia vaikutuksia, mukaan lukien tarve ottaa huomioon digietiikka.
Tässä kandidaatintyössä selvitetään erilaisia backdooreille ominaisia tapoja välttää hyökkäyksen paljastumista. Kandidaatintyö on tehty kirjallisuusselvityksenä. Työn aineistona toimivat sekä haavoittuvuustestauksen opetusmateriaaliksi luodut teokset sekä aiheen tieteelliset artikkelit. Hyökkäys on jaettu haittaohjelman generointiin sekä toimintaan kohteen hallinnan saavuttamisen jälkeen. Toimintaa kohteessa tarkastellaan ensin yhden kohdejärjestelmän osalta, jonka jälkeen selvitetään usean yhteyksissä olevan järjestelmän hallinnan hyödyt. Kandidaatintyö käsittelee esimerkeissään Metasploit työkalukehyksen tarjoaman Meterpreter service -työkalun ratkaisuja puolustusmekanismien luomiin ongelmiin. Backdoorien toimintoja tarkastellaan erityisesti naamiointi- sekä harhautuskyvyn tehostamiseen keskittyen. Esiintuodut toiminnot luovat joko suoraan parempaa naamiointikykyä, tai mahdollistavat toisen tapahtuman, jolla on selvä vaikutus hyökkäyksen piilouttamiselle. Selvityksen tuloksena saadun tiedon perusteella järjestelmään tuodulla backdoorilla on erittäin hyvät mahdollisuudet muokata ympäröivää käyttöjärjestelmää siten, ettei hyökkäyksen saavuttamat muutokset ole ilmiselviä. Hyökkääjä voi manipuloida tunnettuja puolustuksen mekanismeja saavutettuaan tarpeeksi korkeat oikeudet käyttöjärjestelmään. Backdoorin toiminnan pitäminen osana välimuistia piilottaa itse backdoorin useimmilta puolustuskeinoilta, mutta luo ongelmia välimuistin pyyhkiytymisen yhteydessä. Hyökkäyksen säilyvyyden takaamiseksi on useita ratkaisuja sekä itse kohdejärjestelmässä, mutta myös usean yhteydessä toisiinsa olevan järjestelmän hallinnassa. Usean hyökkäyskohteen hallintaa voidaan helpottaa erillisellä Armitage-käyttöliittymällä, joka tuo myös uusia etuja hyökkäyksen tehostamiseen ja tiimityöhön.
Tässä kandidaatintyössä käsitellään ransomware-haittaohjelmien toimintaperiaatteita ja suojautumiskeinoja ransomwareilta. Suojautumiskeinoista käsitellään erityisesti kahta uutta kehitettyä suojautumiskeinoa, avainvarmuuskopiontimenetelmää ja hunajatiedostomenetelmää. Työssä avataan myös hieman ransomwarejen historiaa. Lähteinä työssä on käytetty pääsääntöisesti erilaisia tieteellisiä artikkeleita. Työn tuloksena voidaan todeta, että ransomwaret, niin kuin muutkin haittaohjelmat kehittyvät jatkuvasti. Tämä tarkoittaa sitä, että myös ransomwareilta suojautumiskeinojen tulee kehittyä jatkuvasti. Tulevaisuudessa tulee myös ottaa huomioon mobiililaitteilla toimivat ransomwaret.
Taxonomy is a knowledge management tool that presents useful information in a well-ordered structure prevents overloading of information on its access and making the information access qualitative. This article is concerned with automatically extracting asymmetrical hierarchical relations from a large corpus and subsequent taxonomy construction by domain independent and semi-supervised system. The methodology relies on the term’s distributional semantics. The algorithm utilizes the word-embedding generated from the vector space model. The model is trained over a large corpus to generate word-embedding of each word in a corpus. Then, the system finds and extracts the hypernyms by using the genetic algorithm based on distributional semantics calculations. In the last step, the system adds hyponym-hypernym relations extracted from the string comparison module. Gold Standards taxonomies are used to evaluate the system’s taxonomies for each domain. Our system achieved significant results across each domain.
Vallan tutkijat ovat väitelleet perinteisesti siitä, miten määritellä valta, jotta sen pätevä tutkiminen olisi mahdollista. Tässä artikkelissa kysytään, miten itse politiikan toimijat – tässä veteraanikansanedustajat haastatteluissaan – puhuvat ”vallasta”, eli millainen poliittisen toiminnan väline ”valta” on. Kiinnostuksen kohteena on, ymmärtävätkö veteraaniedustajat vallan yksilölle kuuluvana määräysvaltana, yhteistyössä syntyvänä vaikutuksena vai kenties mahdollisuutena toimia. Keskeinen tulos on vallan monimerkityksellisyys, se on yhtä hyvin vastustamisen kuin oman toiminnan merkittävyyden arvioinnin väline. Artikkeli yhdistää käsitehistorian ja digitaalisen tiedonlouhinnan menetelmiä kooltaan laajan aineistokokoelman laadullisessa analyysissä. Researchers of power have traditionally debated on the definitions of power to enable further empirical studies. This article, instead, asks how political actors – namely veteran MPs in their interviews – themselves speak about “power”, and as which kind of instrument of political action “power” functions. Do veteran MPs perceive power as domination, as the power of command, as an aspect of joint action, or as possibility or creation of political space of action (Spielraum)? The key result is the ambiguity of power: it can be both a tool of resistance and a tool of characterizing one’s own action in the parliament. The article combines methods of conceptual history and digital data mining in the qualitative analysis of a considerably big corpus of data.
Tämän diplomityön tarkoituksena on parantaa Liikenneviraston uuden integroidun tieliikenteen ohjausjärjestelmän suorituskykyä yhdessä sen osa-alueista. Järjestelmä on hyvin laaja ja sen kehittäminen on aloitettu jo vuonna 2013 moniasiakasprojektina. Järjestelmän tarkoituksena oli sulattaa aiemmin käytössä olevat yli 40 erilaista järjestelmää yhdeksi suureksi kokonaisuudeksi. Kyseinen järjestelmä on ollut tuotantokäytössä jo vuodesta 2015 lähtien, mutta laajuutensa myötä se on vieläkin aktiivisessa kehitysvaiheessa. Työssä tarkasteltava kokonaisuus liittyy Suomen tieliikenteen keli- ja tiekameroihin, joista järjestelmään saadaan reaaliaikaista videokuvaa. Nykyään teknologian kehittyessä, myös näitä kameroita on alettu uusimaan, jolloin niistä saadaan entistäkin tarkempaa videokuvaa toistettavaksi. Tällä on haittapuolensa, sillä parempilaatuisen kuvan purkamisesta katsottavaan muotoon syntyy suurempi kuormitus. Aiemmin näitä videovoita on toistettu VLC multimediasoittimen avulla, joka tarjoaa mahdollisuuden laitteistokiihdytyksen käyttämiseen, eli videovuon purkamiseen grafiikkaprosessoria hyväksikäyttäen. Ongelmana on kuitenkin se, että VLC ei mahdollista grafiikkaprosessorin valintaa itse, vaan oletuksena se valitsee aina purkamiseen sen grafiikkaprosessorin, joka on liitettynä näyttöpäätteeseen. Työn tarkoituksena onkin löytää keino, kuinka tätä kuormaa voitaisiin jatkossa jakaa usealle grafiikkaprosessorille suoritettavaksi. Ratkaisu tähän ongelmaan löytyi DirectX ohjelmointirajapinnasta, jonka avulla Windows käyttöjärjestelmän alaisuudessa pyörivää laitteistoa voidaan käsitellä. Ohjelmointirajapinta mahdollistaa kaikkien grafiikkaprosessoreiden tunnistamisen sekä enumeroinnin, jotka ovat kytkettynä alla olevaan laitteistoon. Näiden toimintojen avulla voidaan aina valita haluttu grafiikkaprosessori, jolla videovuo tullaan purkamaan.
Tässä työssä kuvataan olemassa olevan Angular-web-sovelluksen muuttaminen progressiiviseksi web-sovellukseksi ja tähän muutokseen kuuluvat vaiheet. Lisäksi työssä vertaillaan progressiivisen web-sovelluksen ja normaalin web-sovelluksen käyttökokemusta. Progressiivinen web-sovellus pyrkii tekemään web-sovelluksesta mahdollisimman natiivin web-sovelluksen (Android, iOS) kaltaisen. Normaalin web-sovelluksen muuttaminen progressiiviseksi web-sovellukseksi vaatii muutosten tekemistä ja lisäkirjastojen asentamista sovellukseen. Tässä työssä käydään läpi nämä askeleet, joita muutokseen tarvitaan Angular-sovelluksen osalta. Lisäksi työssä vertaillaan normaalin web-sovelluksen ja progressiivisen web-sovelluksen käyttökokemusta empiirisesti sekä toteuttamalla mittauksia. Työssä tutkitaan minkälainen vaikutus progressiivisella toteutuksella on sovelluksen tehokkuuteen ja sitä kautta käyttökokemukseen. Työssä hyödynnetään olemassa olevaa Angular-sovellusta, joka muutetaan progressiiviseksi, ja vertaillaan näin syntyvää progressiivista Angular-sovellusta ja alkuperäistä Angular-sovellusta. Lopuksi tehdään yhteenveto tuloksista ja pohditaan progressiivisen web-sovelluksen hyötyjä ja progressiivisen toteutuksen kannattavuutta eri tyyppisille sovelluksille. Progressiivisen web-teknologian avulla saavutetaan huomattava parannus sovelluksen käyttökokemukseen ja progressiivinen toteutus suoriutuu sovelluksille toteutettavista testeistä huomattavasti paremmin.
Social isolation from the society and from social interactions has been a topic in the media, including the government’s highest leaders. It has been considered problematic and major concern for mostly young people. However, the exclusion is not limited only towards young people, but it is already present in lives of small children in forms of loneliness and non-belonging. It is also present in adult lives, for example, due to unemployment or depression. The social isolation is described by the term alienation. In this research, I present a new algorithm for finding excluded people in social networks using the principles of network modeling. The algorithm uses information about the formation of communities and the computed influence of individual nodes. The theory of the algorithm is based on locating the local maxima, going through the detailed topology of the network and mathematical models measuring influence. Influence is measured by computing the weights of nodes and links, by computing spreading probabilities from a single node to everywhere and from all nodes to the selected node. Different modules of the algorithm can be used for many purposes, from which searching of outcasts is one application. The efficiency of the algorithm and its reliability in realistic cases will be demonstrated. The results of the algorithm have been studied and logical similarities over the network topology have been found. The algorithm is suitable for situations where network topology can be modeled from the real world. Classroom topology can be modeled for example by asking children to name their friends in the class. The purpose of the algorithm is to find the isolated persons to prevent the negative effects of exclusion and loneliness in well-known social environments. To prevent social exclusion from the view of society, the algorithm helps to detect individuals without a large network. It would be easier to get a job or study place through contacts.
Tässä työssä perehdyttiin ohjelmointikieli Kotliniin ja vertailtiin sitä Javaan. Työn tarkoituksena oli selvittää Kotlinin suosion kasvua ja kasvun syitä. Lisäksi tarkasteltiin myös missä Kotlinia käytetään ja missä ei. Ensin perehdyttiin hieman aihepiiriin, sekä Javan että Kotlinin perusteisiin. Perusteiden jälkeen käytiin läpi Kotlinin uusia ominaisuuksia, ja vertailtiin niitä Javaan. Sen jälkeen tutkittiin Kotlinin suosion kasvua tarkastellen käyttäjämääriä, käyttäjätyytyväisyyttä, kielen herättämää kiinnostusta, internetissä saatavilla olevan materiaalin määrää ja kysyntää työmarkkinoilla. Lopuksi pohdittiin suosion syitä. Kotlin tarjoaa paljon uusia moderneja ominaisuuksia Javaan verrattuna, joita ohjelmoijat arvostavat, kuten tyhjäarvotarkastukset. Sen suosio on kasvanut voimakkaasti etenkin sen jälkeen, kun se sai statuksen virallisena Android-kielenä, ja Android onkin sen yleisin käyttötarkoitus. Puutteet työkalujen yhteensopivuudessa ovat yleisimpiä teknisiä syitä, jotka estivät Kotlinin käytön. Javan yleisyyden myötä Kotlinin potentiaalinen käyttäjäkunta on valtava, mutta ainakin työmarkkinoilla kielen kysyntä on edelleen verrattain vähäistä.
Tässä työssä käsitellään proseduraalisten kohinageneraattorien teoriaa, toteutusta ja sovellustapoja, minkä pyrkimyksenä on luoda kattava yleiskuva aihekokonaisuudesta. Erityisenä näkökulmana aiheeseen ovat tietokonegrafiikka ja muu proseduraalinen sisällön generointi ohjelmistoissa. Tästä huolimatta keskeiset löydökset ja periaatteet esitellään tavalla, joka on yleisesti hyödynnettävissä myös muissa sovelluksissa. Työn alussa keskitytään löytämään määritelmä kohinafunktioille ja niihin liittyville käsitteille keskustellen samalla niiden ominaisuuksista sekä tila- että taajuustasossa. Lisäksi esitellään useita kohinan manipulointimenetelmiä, joiden avulla pystytään luomaan kokonaan uusia kohinatyyppejä ja mitä erilaisimpia kuvioita ja efektejä. Yleisen teoreettisen tarkastelun jälkeen siirrytään keskustelemaan käytännöllisistä kohina-algoritmeista, joista yksinkertaisimpana menetelmänä käydään läpi arvokohina. Sen jälkeen syvennytään Perlin-kohinafunktion toteutukseen. Tähän sisältyy muun muassa Perlin-kohinan historiallisia referenssitoteutuksia ja niiden pohjalta kehitetty vaihtoehtoinen Perlin-kohinan toteutus, jonka uusi hajautusfunktio korjaa suuren osan klassisen version puutteista. Viimeiseksi uuden kohinafunktion toteutusta verrataan klassiseen niiden suorituskyvyn ja laadullisten tekijöiden osalta. Tämän jälkeen toteutettuja kohinafunktioita käytetään monipuolisilla tavoilla havainnollistamaan kohinan esimerkkisovelluksia tietokonegrafiikassa ja maaston generoinnissa yhdistäen edeltävissä osioissa esille nousseita tekniikoita ja löydöksiä.
Ohjelmakoodin kompleksisuus tekee koodista vaikeammin ylläpidettävää. Heikko ylläpidettävyys näkyy suurempina kustannuksina. Kompleksisuuden seuraaminen voi auttaa ohjaamaan kaikkia ohjelmistoprojektien vaiheita määrittelystä ylläpitämiseen. Tässä työssä tutkitaan kolmea laajasti tunnettua kompleksisuusmittaria, joita voidaan käyttää metoditason kompleksisuuden seuraamiseen. Tutkitut mittarit ovat syklomaattinen kompleksisuus, Halsteadin ohjelmistometriikat ja ylläpidettävyysindeksi. Työssä tutkittiin mittareiden käyttäytymistä analysoimalla ohjelmallisesti 6448 metodia Java-kielisestä avoimen lähdekoodin projektista. Tutkimus koostui kahdesta osasta. Ensimmäisessä vaiheessa mittareiden antamista tuloksista laskettiin korrelaatiomatriisi ja piirrettiin hajontakaaviot. Toisessa vaiheessa tutkittiin mittareiden käyttäytymistä tekemällä havaintoja kompleksisimmista metodeista. Lisäksi vertailtiin keskenään rivimääriltään yhtä pitkiä, mutta kompleksisuudeltaan erilaisia metodeja. Tutkimuksessa selvisi, että kaikkien mittarien antamat tulokset olivat melko vahvasti riippuvaisia metodien rivimääristä. Suurin korrelaatio, joka oli arvoltaan 0,942, löytyi syklomaattisen kompleksisuuden ja ohjelmakoodin rivimäärän väliltä. Mittareiden käyttäytymisestä löydettiin eroja. Syklomaattiselta kompleksisuudeltaan kompleksisemmissa metodeissa käytettiin paljon switch-lauseita sekä lyhyitä ehtolauseita ja silmukkarakenteita. Halsteadin työmäärän ja vaikeuden mukaan kompleksisemmat metodit sisälsivät keskimäärin pidempiä rivejä ja enemmän erilaisia ohjelmointikielen rakenteita. Ylläpidettävyysindeksin mukaan vaikeammin ylläpidettävissä metodeissa havaittiin sekä paljon silmukkarakenteita, ehto- ja switch-lauseita että pitkiä rivejä ja useiden erilaisten ohjelmointikielen rakenteiden käyttöä.
Työn analyysin kohteena oli hollantilaisen Eelco Dolstran tutkimusprojektina alkanut ja sittemmin väitöskirjaksi asti päätynyt projekti NixOS, joka on järjestelmäkonfiguroinnin hallintaan ja ohjelmistojen jakeluun liittyvien ongelmakohtien ratkaisemiseen erikoistunut Linux-pohjainen käyttöjärjestelmä. Tämän työn tarkoituksena oli selvittää tarkemmin mitä nämä ongelmakohdat tosiasiassa ovat, millaisilla ratkaisuilla niitä on NixOS:ssä ratkaistu ja millaisia eroavaisuuksia NixOS sisältää verrattuna muihin suosittuihin Linux-käyttöjärjestelmiin. Tämän lisäksi tavoitteena oli myös selvittää millaisiin käyttökohteisiin NixOS sopii. Työssä perehdyttiin aluksi tavallisten Linux-jakeluiden rakenteeseen, josta erityisesti pakettienhallintaan, koska se on NixOS:n poikkeuksellisin ja tärkein komponentti. Näillä tiedoilla siirryttiin NixOS:n esittelyyn, josta käytiin läpi sen historiaa, rakennetta ja erityisiä ominaisuuksia. Tämän jälkeen keskityttiin NixOS:n tärkeimpään ominaisuuteen, eli sen pakettienhallintajärjestelmään. Siitä käytiin läpi sen toimintaperiaate ja erot muihin pakettienhallintajärjestelmiin. Lopuksi esiteltiin vielä erilaisia käyttökohteita, joihin NixOS soveltuu. Tämän ohessa myös pohdittiin erilaisia seikkoja, miksi NixOS ei ole laajoista ominaisuuksistaan huolimatta edelleenkään kovin suosittu. Työssä saatiin selville millaisia rakenteellisia ratkaisuja NixOS:ssä on jouduttu tekemään, jotta se voisi tarjota hyvin poikkeukselliset ominaisuutensa. Näistä ratkaisuista käytiin erityisen tarkasti läpi pakettienhallintaohjelmiston toteutus, joka on merkittävästi erilainen kuin muiden suosittujen Linux-jakeluiden vastaavien ohjelmien. Lopuksi vielä spekuloitiin useita potentiaalisia syitä NixOS:n vaatimattomaan suosioon, kuten esimerkiksi erittäin pieni kohderyhmä, kaupallisen tuen puute ja helpommin käytettävät kilpailevat ratkaisut.