<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <title>DSpace Collection:</title>
  <link rel="alternate" href="http://elea.unisa.it/xmlui/handle/10556/63" />
  <subtitle />
  <id>http://elea.unisa.it/xmlui/handle/10556/63</id>
  <updated>2026-04-14T14:23:00Z</updated>
  <dc:date>2026-04-14T14:23:00Z</dc:date>
  <entry>
    <title>Artificial Intelligence methods for supporting biomedical data analysis</title>
    <link rel="alternate" href="http://elea.unisa.it/xmlui/handle/10556/7444" />
    <author>
      <name>Frasca, Maria</name>
    </author>
    <id>http://elea.unisa.it/xmlui/handle/10556/7444</id>
    <updated>2025-04-30T17:52:26Z</updated>
    <published>2022-05-06T00:00:00Z</published>
    <summary type="text">Title: Artificial Intelligence methods for supporting biomedical data analysis
Authors: Frasca, Maria
Abstract: Artificial intelligence (AI) is a fundamental technology useful in many fields, ranging
from finance, weather forecast, to medicine. Positive results are reached especially
in the diagnostic field, where AI provides a great support to the physician’s assessments. The goal of this thesis is to support biomedical data analysis by means Artificial Intelligence methods and techniques. To this aim I define processes based on
Machine Learning capable of improving diagnoses, by identifying the schematics of
a well-determined pathology. These tools will be available to clinicians, in order to
be able to intervene on patients through countermeasures adapted to their specific
needs. I have concentrated my attention on the detection two kinds of diseases: (i)
the degenerative disease, such as Parkinson and Coloboma, and (ii) the oncological
disease, such as Leukemia and Melanoma.
In particular, in the case of Parkinson, it is difficult to formulate a clinical diagnosis because there are neither objective tests nor specific biochemical and neuroradiological markers. I apply IR techniques to patient records belonging to a standard
dataset for classifying Parkison patients on the base of the reports produced during the different visits. The obtained results are very promising on the use of this
tool in the clinical practice. I also investigate how traditional biometric techniques
may fail in presence of a iris pathology, such as Coloboma. Thus, I adopted Artificial
Intelligence techniques for detecting irises affected by Coloboma, I demonstrated
that traditional biometrics alghorithms fail in presence of this disease, such as the
ones proposed by Daugman and Canny. Thus, I develop an algorithm which extends
the largely adopted Daugman’s algorithm and allows also the people affected by this
disease to be recognized by biometrical systems. In this way, they are not excluded
by the access a services secured by iris detection. I also experiment Artificial Intelligence models and technique to detect in the case of the detection of oncological
disease. In particular, concerning Leukemia I define a process aiming at detecting
a set of differentially expressed genes in terms of methylation level, i.e., genes that
in different conditions have an expression level significantly different in the Acute
Myeloid Leukemia (AML) and Acute Lymphoblastic Leukemia (ALL) cases, and their
characteristic pathways. The detection of gene expression data samples involves
feature selection and classification. To this aim, Deep Learning models have been
adopted (e.g., feature selection techniques and classifiers methods). A methodology is also proposed for the classification of melanoma by adopting different Deep
Learning techniques applied to a common image dataset extracted from the ISIC
dataset and consisting of different types of skin diseases, including melanoma on
which is applied a specific pre-processing phase. The results of the adopted techniques (i.e., ResNet, 2D CNN, and SOM) are compared to select the best effective
neural network for the recognition and classification of melanoma and evaluate the
impact of the pre-processing phase. I also propose an augmented reality application  for to support of the diagnosis of melanoma. It exploits both Artificial intelligence and image processing techniques. I describe in detail the real-time process
proposed to display the augmented nevus information and evaluated the real-time
performances and the app usability. The main results of the proposed approaches
are encouraging and suggest that they may be considered in the practical clinical.
In the future, I plan to use artificial intelligence models and techniques and image
processing to analyze Magnetic Risonance Images of the brain to detect progression
of Parkinson’s disease. Furthermore, the results obtained in the case of Coloboma of
the eye could be extended and studied in other ophthalmic diseases. [edited by Author]; L'intelligenza artificiale (AI) è una tecnologia molto utile in diversi campi, che vanno dalla finanza,
alle previsioni del tempo, alla medicina. Risultati positivi si ottengono soprattutto in ambito
diagnostico, dove l'IA fornisce un grande supporto alle valutazioni del medico.
L'obiettivo di questa tesi è supportare l'analisi dei dati biomedici attraverso metodi e tecniche di
Intelligenza Artificiale. A tal fine definisco processi basati sul Machine Learning in grado di
supportare le diagnosi, individuando gli schemi di una determinata patologia. Questi strumenti
saranno a disposizione dei medici, in modo da poter intervenire sui pazienti attraverso contromisure
adattate alle loro specifiche esigenze. Ho concentrato la mia attenzione sulla rilevazione di due tipi
di malattie: (I) la malattia degenerativa, come il Parkinson e il Coloboma, e (ii) malattie oncologiche,
come la leucemia e il melanoma.
In particolare, nel caso del Parkinson, è difficile formulare una diagnosi clinica perché non ci sono
test oggettivi né marcatori biochimici e neuroradiologici specifici. Ho applicato le tecniche IR alle
cartelle dei pazienti appartenenti a un dataset standard per la classificazione dei pazienti affetti da
Parkison sulla base dei referti prodotti durante le diverse visite. I risultati ottenuti sono molto
promettenti per quanto riguarda l’uso di questo strumento nella pratica clinica. Ho indagato anche
su come le tecniche biometriche tradizionali possano fallire in presenza di una patologia dell'iride,
come il coloboma. Così, ho adottato tecniche di Intelligenza Artificiale per rilevare le iridi affette da
Coloboma, ho dimostrato che gli algoritmi biometrici tradizionali falliscono in presenza di questa
malattia, come quelli proposti da Daugman e Canny. Così, ho sviluppato un algoritmo che estende
l'algoritmo di Daugman largamente adottato e consente anche alle persone affette da questa
malattia di essere riconosciute dai sistemi biometrici. In modo tale da non poter essere dall'accesso
a servizi protetti basati sul rilevamento dell'iride.
Inoltre, ho sperimentato modelli e tecniche di Intelligenza Artificiale per la detection di malattie
oncologiche. In particolare, per quanto riguarda la Leucemia definisco un processo volto a rilevare
un insieme di geni differenzialmente espressi in termini di livello di metilazione, cioè geni che in
diverse condizioni hanno un livello di espressione significativamente diverso come nella Leucemia
mieloide acuta (AML) e leucemia linfoide acuta (AML). Il repertamento dei campioni di espressione
genica implica la selezione e la classificazione delle caratteristiche. A questo scopo sono stati
utilizzati modelli di Deep Learning (ad esempio, tecniche di selezione delle caratteristiche e metodi
di classificazione). Viene inoltre proposta una metodologia per la classificazione del melanoma
adottando diverse tecniche di Deep Learning applicate al dataset di immagini ISIC costituito da
diversi tipi di malattie della pelle, incluso il melanoma su cui viene applicata una specifica fase di
pre-processing. I risultati delle tecniche adottate (es. ResNet, 2D CNN e SOM) vengono confrontati
per selezionare la migliore rete neurale per il riconoscimento e la classificazione del melanoma e
valutare l'impatto della fase di pre-elaborazione delle immagini. Propongo anche un'applicazione di
realtà aumentata a supporto della diagnosi di melanoma. Essa sfrutta sia tecniche di Intelligenza
Artificiale che tecniche di elaborazione delle immagini. Descrivo in dettaglio il processo in tempo
reale proposto per visualizzare le informazioni del nevo e valutato le prestazioni in tempo reale e
l'usabilità dell'app. I principali risultati degli approcci proposti sono incoraggianti e suggeriscono che
possono essere presi in considerazione nella pratica clinica.
In futuro, ho intenzione di utilizzare modelli e tecniche di intelligenza artificiale e di elaborazione
delle immagini per analizzare le immagini di risonanza magnetica del cervello per rilevare la
progressione del morbo di Parkinson. Inoltre, i risultati ottenuti nel caso del Coloboma dell’occhio
potrebbe essere estesi e studiati in altre malattie oftalmiche. [a cura dell'Autore]
Description: 2020 - 2021</summary>
    <dc:date>2022-05-06T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Technical Debt in Software Development: A Multi-Perspective Investigation</title>
    <link rel="alternate" href="http://elea.unisa.it/xmlui/handle/10556/7424" />
    <author>
      <name>Pecorelli, Fabiano</name>
    </author>
    <id>http://elea.unisa.it/xmlui/handle/10556/7424</id>
    <updated>2025-04-30T17:47:10Z</updated>
    <published>2022-03-25T00:00:00Z</published>
    <summary type="text">Title: Technical Debt in Software Development: A Multi-Perspective Investigation
Authors: Pecorelli, Fabiano
Abstract: I prodotti software devono essere costantemente manutenuti e aggiornati per sopravvivere e
continuare a soddisfare le esigenze di aziende e utenti. Agli sviluppatori viene spesso richiesto di
eseguire attività di manutenzione ed evoluzione del software nel più breve tempo possibile al fine
di rendere disponibili le modifiche al più presto. Di conseguenza, questi non hanno la possibilità di
applicare le buone pratiche di sviluppo, introducendo così il cosiddetto debito tecnico, ovvero
l'applicazione di una soluzione rapida e di bassa qualità invece di una migliore che richiederebbe
più tempo. Ciò causerà una diminuzione della qualità del software e richiederà un notevole sforzo
di manutenzione in futuro. Per questo motivo, per le aziende di software è di fondamentale
importanza individuare in anticipo i sintomi del debito tecnico. Tuttavia, tali sintomi potrebbero
manifestarsi in forme diverse e in diversi stadi di sviluppo, rendendo più difficile la loro
identificazione. Nel contesto di questa tesi, affrontiamo questa sfida da diverse prospettive.
In primo luogo, ci concentriamo sui bad code smell, cattive scelte di progettazione o
implementazione applicate nel codice sorgente dagli sviluppatori che possono portare a una
scarsa manutenibilità e a una diminuzione della comprensibilità del codice. Negli ultimi anni,
diversi ricercatori hanno ideato strumenti e tecniche per il rilevamento automatico di questi difetti
di progettazione. Tuttavia, purtroppo, tutte le tecniche proposte sembrano essere ancora troppo
limitate e inadeguate per essere applicate in contesti reali. La prima parte di questa tesi si
concentra sulla sperimentazione dell'idoneità delle tecniche di rilevamento di code smell basate
sul machine learning. I risultati preliminari dimostrano che le tecniche basate sul machine learning
hanno scarse prestazioni per il rilevamento automatico dei code smell, a causa di diverse
limitazioni come (i) la natura fortemente sbilanciata del problema, (ii) la soggettività dei risultati e
(iii) l'insieme ridotto di metriche considerate finora. Questa tesi indaga separatamente questi tre
aspetti, proponendo soluzioni specifiche per superarli. Sebbene siano stati prodotti alcuni
avanzamenti, le tecniche di apprendimento automatico richiedono ancora ulteriori miglioramenti
per fornire un rilevamento affidabile degli odori del codice.
Oltre a studiare il debito tecnico nel codice di produzione, consideriamo anche la sua presenza,
oltre che la sua nocività, nel codice di test. Le attività di test sembrano ricevere un'attenzione
molto minore durante lo sviluppo del software: i test vengono spesso sviluppati senza applicare
principi di programmazione adeguati o generati automaticamente con il supporto di strumenti
specifici. Pertanto, le suite di test risultanti sono spesso caratterizzate da una bassa qualità che
potrebbe anche ridurne l'efficacia nella scoperta dei bug. Questa tesi affronta questa sfida
presentando un'analisi su larga scala della qualità e dell'efficacia del codice di test sia nei sistemi
tradizionali che nelle applicazioni mobili al fine di comprendere i fattori relativi al test che sono più legati ai problemi tecnici nel codice di produzione. I principali risultati confermano che le suite di
test sono caratterizzate da una qualità ed efficacia del codice molto basse, in particolare per
quanto riguarda le applicazioni mobili. Inoltre, a differenza di quanto precedentemente affermato
in letteratura, alcuni degli aspetti qualitativi considerati (e.g., dimensione del codice, test smell)
hanno dimostrato di avere una correlazione più forte con i difetti del codice di produzione rispetto
alle metriche di copertura tradizionali ampiamente adottate.
Infine, includiamo anche una discussione sulle principali lezioni apprese e questioni aperte insieme
ad alcune indicazioni su ulteriori direzioni di ricerca. [a cura dell'Autore]; Software products need to be constantly maintained and updated to keep being useful and
satisfying companies' and users' needs. Developers are often required to perform software
maintenance and evolution activities in the shortest possible time in order to make the changes
available as soon as possible. As a result, they do not have the possibility to apply ideal
development practices, thus introducing the so-called technical debt, i.e., the application of a
quick and low-quality solution instead of a better one that would take longer. This will cause a
decrease in software quality and require significant maintenance effort in the future. For this
reason, identifying the symptoms of technical debt in advance is of fundamental importance for
software companies. However, such symptoms could appear in different forms and at different
stages of development, making harder their identification. In the context of this thesis, we face
this challenge from several perspectives.
First, we focus on bad code smells, poor design or implementation choices applied in the source
code by developers that have been associated with maintainability and understandability
degradation. Over the last years, several researchers have been devising tools and techniques for
the automatic detection of these design flaws. However, unfortunately, all the proposed detectors
appear to be still too limited and inadequate to be applied in real industrial contexts. The first part
of this thesis focuses on experimenting with the suitability of machine learning-based code smell
detection techniques. Preliminary results demonstrate that machine learning-based techniques
still have limited performance for automatic code smell detection, due to several limitations such
as (i) the strongly unbalanced nature of the problem, (ii) the subjectivity of the results, and (iii) the
limited set of metrics considered so far. This thesis investigates these three limitations separately,
proposing specific solutions to overcome them. However, although some advantages have been
reported, machine learning techniques still require more improvement to provide reliable
detection of code smells.
Other than studying technical debt in production code, we also consider its presence, as well as its
harmfulness, in test code. Testing activities seem to receive way lower attention during software
development: tests are often developed without applying proper programming principles or
automatically generated with the support of specific tools. Therefore, resulting test suites are
often characterized by a low quality that could also reduce their effectiveness in bug discovery.
This thesis faces this challenge by presenting a large-scale analysis of test code quality and
effectiveness both in traditional systems and in mobile applications in order to understand the
test-related factors that are most related to technical issues in production code. The main results
confirm that test suites are characterized by a very low code quality and effectiveness, particularly with respect to mobile applications. Moreover, differently from what was previously stated in the
literature, some of the quality aspects considered (e.g., size, test smells) have been shown to have
a stronger correlation with production code defects as compared to traditional and widelyadopted coverage metrics.
Finally, we also include a discussion on the main lessons learnt and open issues together with
some indications about further research directions. [edited by Author]
Description: 2020 - 2021</summary>
    <dc:date>2022-03-25T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Quality and Privacy-aware (Linked) Open Data Exploitation</title>
    <link rel="alternate" href="http://elea.unisa.it/xmlui/handle/10556/7423" />
    <author>
      <name>Pellegrino, Maria Angela</name>
    </author>
    <id>http://elea.unisa.it/xmlui/handle/10556/7423</id>
    <updated>2025-04-30T17:47:01Z</updated>
    <published>2022-04-26T00:00:00Z</published>
    <summary type="text">Title: Quality and Privacy-aware (Linked) Open Data Exploitation
Authors: Pellegrino, Maria Angela
Abstract: Data are the new oil and it is widely recognised the role of publishing them as Open Data to let data consumers freely access and
exploit them. Data providers are not only encouraged to publish
data but to ensure that available datasets are fit-for-use, meaning
that data users can directly exploit them without investing effort,
time, and money in performing data cleansing. The situation
becomes even more complex when data publishers deal with
data concerning individuals. Data in their raw form may contain
personal and sensitive information about people and publishing
them as are violate individual privacy. Hence, data publishers
need to apply privacy-preserving data publishing procedures by
publishing (sensitive) data without violating individual privacy.
Thus, data publishers before publishing data or data consumers before exploiting them require privacy-aware data cleansing approaches. Data publishers mainly opt for publishing data
in tabular format. Hence, data cleansing approaches should be
compatible with this format. As assessing and improving data
quality cleansing is time-consuming and expensive, the proposed
approaches should simplify as much as possible the procedures
to guarantee high-quality data by proposing (semi-)automatic
procedures. Moreover, data cleansing approaches usually require
specific expertise that limits the applicability of the proposed
mechanism. To ameliorate competencies requirements, novel
proposals should limit the required skills to favorite wider exploitation of data and their cleaning methodologies.
In this context, the first pillar of my research is placed: proposing (semi-)automatic privacy-aware data cleansing approaches
dealing with tabular data to make data users able to improve
Open Data quality while preserving individual privacy. It resulted in a series of approaches and prototypes, mainly integrated into a Social Platform for Open Data (SPOD) used by Public Administrations, such as the Campania Region, associations,
such as Hetor, and citizens, such as students joining activities to
familiarise themselves with the Open Data directive. While data providers mainly publish tabular data, data consumers might be interested in semantic reach data format, such
as graph-like structures, as they can be easily navigated and
explored thanks to their interlinked properties. However, directly
querying Knowledge Graphs requires expertise in query languages and awareness in the conceptualised data, which are
considered too challenging for lay users.
Hence, data consumers require Knowledge Graph exploitation
means being able to mask underlying technical challenges. Moreover, data users may require to consume data according to their
expertise, background, application contexts, needs, interests, capabilities. It requires designing data exploitation approaches that
deal with specific requirements according to the targeted stakeholders. This dissertation mainly focuses on people with data table
manipulation and visualisations experiences, to guide them to move
from tabular data to Knowledge Graph exploitation means, education to guide pupils in implicitly exploiting Knowledge Graphs in
knowledge management and information retrieval tasks, and the
cultural heritage community, for their wide interest in publishing
their data according to the Semantic Web technologies.
It results in the second pillar of this dissertation, the effort in
designing and implementing Knowledge Graph exploitation
means. As a general approach, users are guided in querying
Knowledge Graphs by (controlled) natural language interfaces
and organising results as data tables, manually or automatically
perform data manipulation, and exploit results in dynamic artifacts. According to target-oriented requirements, experts in data
table manipulation are provided with a mechanism to author
dynamic and exportable data visualisation components; pupils
are guided to navigate word clouds while implicitly consuming
Knowledge Graphs; cultural heritage lovers are guided to author
virtual reality-based virtual exhibitions or ready-to-use virtual
assistant extensions behaving as virtual guides. The generated
artifacts demonstrate our interest in letting data consumers play
the role of an active user of available data and exploiting them
in concrete, dynamic, reusable and shareable artifacts taking
advantage of (Linked) Open Data. [edited by Author]
Description: 2020 - 2021</summary>
    <dc:date>2022-04-26T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Security and Privacy Concerns within Smart Environments: User-Centered Approaches for Defining Secure Trigger-Action Programs</title>
    <link rel="alternate" href="http://elea.unisa.it/xmlui/handle/10556/7410" />
    <author>
      <name>Breve, Bernardo</name>
    </author>
    <id>http://elea.unisa.it/xmlui/handle/10556/7410</id>
    <updated>2025-04-30T17:44:35Z</updated>
    <published>2023-06-13T00:00:00Z</published>
    <summary type="text">Title: Security and Privacy Concerns within Smart Environments: User-Centered Approaches for Defining Secure Trigger-Action Programs
Authors: Breve, Bernardo
Abstract: The advent of the Internet of Things (IoT) paradigm has launched a new world of opportunities, bringing with it a new understand ing of objects and technology that, today, is all around us. In fact, especially in domestic environments, there is a real digital overhaul of the objects that users interact with on a daily basis. Thus, devices such as lights, TVs, cameras, locks, and electrical outlets are expanding their set of physical and technical characteristics expected from such devices with the addition of “smart” functionality, made possible by providing such devices with Internet connectivity. The activation and management of these devices, therefore, can be coordinated remotely, via smartphone, or through voice assistants such as Amazon Alexa or Google Home. Being devices eternally connected to the Internet, they never stop collecting, processing and sending data of the environment in which they are placed. For example, a temperature sensor can at any time send updates on the state of the environment, directly to the user’s smartphone, or a camera can provide, at any time, a live image of the apartment. In addition, such devices can be configured to provide true automation that is triggered in response to the occurrence of certain conditions. This aspect is precisely among the most important of those offered by IoT technology; in fact, the interoperability that can be established between different IoT devices and/or communication with different web services is capable of radically simplifying the everyday life of users who make use of them. Recently, we have witnessed the emergence of several platforms specifically designed to simplify the definition, by the endusers, of automation, based on the interaction between devices and services in a smart environment. Among these platforms, the most popular ones are those that provide a reinterpretation of the Trigger-Action paradigm, i.e., the ability to define automatisms by specifying the event (or trigger) and the action. The first component establishes the type of event for which the automation is triggered if conditions are met. Instead, the second component refers to the operation to be performed to complete the automation. Such platforms take the name of Trigger-Action Platforms (TAPs). [edited by Author]; L’avvento del paradigma dell’Internet of Things (IoT) ha dato vita ad un nuovo mondo di opportunità, portando con sé una nuova comprensione degli oggetti e della tecnologia che, oggi, ci circonda. In effetti, soprattutto negli ambienti domestici, c’è una vera e propria rivoluzione digitale degli oggetti con cui gli utenti interagiscono quotidianamente. Pertanto, dispositivi come luci, televisori, telecamere, serrature e prese elettriche stanno espandendo il loro insieme di caratteristiche fisiche e tecniche attese da tali dispositivi con l’aggiunta di funzionalità "intelligenti", rese possibili dalla fornitura di tali dispositivi con la connettività Internet. L’attivazione e la gestione di questi dispositivi, quindi, possono essere coordinate in modo remoto, tramite smartphone o tramite assistenti vocali come Amazon Alexa o Google Home. Essendo i dispositivi eternamente connessi a Internet, non smettono mai di raccogliere, elaborare e inviare dati dell’ambiente in cui sono collocati. Ad esempio, un sensore di temperatura può inviare in qualsiasi momento aggiornamenti sullo stato dell’ambiente, direttamente sul smartphone dell’utente, oppure una telecamera può fornire, in qualsiasi momento, un’immagine in diretta dell’appartamento. Inoltre, tali dispositivi possono essere configurati per fornire un’automazione vera e propria che viene attivata in risposta all’occorrenza di determinate condizioni. Questo aspetto è proprio tra quelli più importanti offerti dalla tecnologia IoT; infatti, l’interoperabilità che può essere stabilita tra diversi dispositivi IoT e/o la comunicazione con diversi servizi web è in grado di semplificare radicalmente la vita quotidiana degli utenti che ne fanno uso. Recentemente, abbiamo assistito alla comparsa di diverse piattaforme specificamente progettate per semplificare la definizione, da parte degli utenti finali, dell’automazione, basata sull’interazione tra dispositivi e servizi in un ambiente intelligente. Tra queste piattaforme, quelle più popolari sono quelle che forniscono una rielaborazione del paradigma Trigger-Action, ovvero la capacità di definire automatismi specificando l’evento (o trigger) e viii l’azione. Il primo componente stabilisce il tipo di evento per il quale l’automazione viene attivata se le condizioni sono soddisfatte. Invece, il secondo componente si riferisce all’operazione da eseguire per completare l’automazione. Tali piattaforme prendono il nome di piattaforme Trigger-Action (TAP). [a cura dell'Autore]
Description: 2021 - 2022</summary>
    <dc:date>2023-06-13T00:00:00Z</dc:date>
  </entry>
</feed>

