The goal of the project: Conducting a experiment, to gather data from 100-150 participants
Technology: Set of sensors (eyetracker, EDA, ECG), in-house procedure for gathering data including sets of stimuli and afective game(ShroomDoom)
Description: Assistance in conducting an experiment on affective computing. The aim of the experiment is to perform fundamental research to collect data for studies on the recognition of the affective states of subjects in the context of measurements from sensors with different modalities.
Description: This project integrates metadata from social life document collections of the JBC into a knowledge graph to create semantic connections between people, places, events, and objects. Using GPT-based methods, the system generates thematic, chronological, or stylistic narratives that present historical materials in the form of timelines, maps, or continuous digital stories, supporting contextual discovery in historical and educational research.The project also develops new exploration tools (e.g., character relationship maps), interactive storytelling features, GeoNames integration, text-based queries, recommendation and personalization mechanisms, and improved UI with micro-interactions. Additionally, a continuous UX evaluation module will enable users to provide immediate in-app feedback on generated stories and timelines.
The goal of the project: Validate the usability of Wikidata as a central point of cultural heritage data cloud
Technology: RDF/Semantic Web, some programming (Python preferred)
Description: Wikidata has many links to external sources of information (URIs/foreign keys), but are these links correct? Can additional information be extracted from these sources, or do these pages not contain any data that can be processed automatically? Previous project (chcloud) started exploration of this topic (validation of some links, basic data extraction). Now, we want to continue it and: (a) check whether this process can be automated, (b) prepare a knowledge graph that will combine this data into a single cultural heritage data cloud [for the purposes of the project, we will probably limit it to individuals associated with the University], (c) evaluate such a graph (including comparison with a graph containing only data from Wikidata)
[KKT] Iconclass-based classification and recommendation
The goal of the project: Extend the existing prototype of ICONCLASS-based classification and recommendation modules
Technology: RDF/Semantic Web, Python, ML basics
Description: Iconclass is a very complex system for classifying objects depicted in artworks, covering real objects, various scenes, and abstract concepts. It has been used for many years by experts to tag artworks. We want to help them do this, so we have created a prototype tool that first assigns tags (classification) and then recommends related artworks. As part of this project, we want to expand this tool. Directions for development: (a) Detection fine-tuning: find Iconclass-labeled datasets and fine-tune YOLO (or other object-detection model), (b) Multimodal classification: not only YOLO, but also textual metadata, iconographic labels, neural image features, and even visin-language embeddings like CLIP can help in better classification, (c) expand rule engine for abstract codes inference: rules can be mined semi-automatically from large Iconclass-labeled corpora (with frequent pattern mining over code co-occurrences), (d) recommendation module: create unified recommender (now, we have three recommenders), add explainability layer. There is also a place for your ideas :)
The goal of the project: Extend the existing recommendation workflow to include expert knowledge, an evaluation interface with explanations for experts, and user interface for final users
[LVM] Applying KG discovery algorithms to digital humanities KG
Student:
Namespace in the wiki:
The goal of the project: Applying KG discovery algorithms to digital humanities KG
Technology: RDF, Python
Description: This project applies KG discovery algorithms to find interesting and non-obvious relations within digital humanities KGs, using the CIDOC-CRM ontology as a case study. It explores serendipitous discovery, path evaluation, and pattern identification. Graph-based models enable this because they facilitate algorithmic exploration of linked cultural heritage data.
[LVM] Applying network analysis to digital humanities KG
Student:
Namespace in the wiki:
The goal of the project: Applying network analysis to digital humanities KG
Technology: RDF, Python
Description: This project uses network analysis methods (degree, eigenvector, PageRank centrality, community detection) to reveal patterns, central entities, and relationships in cultural heritage KGs based on CHExNET (https://zenodo.org/records/18715362). The aim is to identify structural properties and key nodes to aid interpretation and support research within cultural heritage contexts.
[LVM] Implementing an automatic KG shortcut generator
Student:
Namespace in the wiki:
The goal of the project: Implementing a tool for automatic KG shortcut generation
Technology: RDF, Python, LLM
Description: This project automates the creation of KG “shortcuts,” which are derived relations that simplify navigation, querying, and graph algorithm usage in complex ontologies like CIDOC-CRM. Shortcuts may omit certain reifications or events, making knowledge graphs easier to traverse and analyse. The approach should be generalizable beyond CIDOC-CRM. LLLMs can perhaps be used for this task.
The goal of the project: Creating a scientifric report including short experiments on perplexity as agent evaluation metric
Technology: Python, LLM
Description: Understanding what metrics are used for evaluating LLM-based agents, experimenting with some models, evluating if adding perplexity metrics to the evaluation can increase the explanation of the evaluations, discover other metrics that are also related to “training data” that are perhaps more effective, studying the limitations of usinf perplexity metrics.
The goal of the project: Celem projektu jest integracja algorytmu ACFX do generowania wyjaśnień kontrfaktyczncyh z grafowymi sieciami neuronotymi dla szergów czasowych.
Technology: Python
* Description:
Wybór problemu i danych (przykladowy zbiór i implementacja będą dane, ale możliwa zmiana na coś prostszego): prosta klasyfikacja/regresja na grafach czasowych (np. ruch/obciążenie, prosty syntetyczny graf czasowy lub mały benchmark z PyG-Temporal).
Model bazowy: implementacja prostego TGN
Adapter ACFX:
zdefiniowanie celu kontrfaktu (zmiana klasy / przesunięcie wartości wyjścia),
przestrzeń dozwolonych zmian (węzły, krawędzie, atrybuty; ograniczenia „realizmu”),
funkcja straty kontrfaktu (fidelity + sparsity + plausibility).
Ewaluacja: fidelity/validity kontrfaktów, koszt (liczba zmienionych cech), stabilność w czasie (czy kontrfakt „utrzymuje” efekt w kolejnych krokach).
Demo: notebook + krótkie CLI do wygenerowania kontrfaktu dla wskazanego węzła/czasu.
The goal of the project: Stworzenie autoenkodera dla szeregów EKG i analiza latent‑space (UMAP/t‑SNE) pod kątem lokalizacji jednostek chorobowych, płci i innych metadanych; w drugiej części – prosta klasyfikacja na wektorach latentnych.
Technology: Python
Dane i preprocessing:
wybór publicznego zbioru (np. PTB‑XL) (dostępna wersja już po preprocesingu na łame chunk równej długości)
The goal of the project: Celem projektu jest dodanie funkcjonalności generowania kontrfaktów dla regresji do oprogramowania ACFX
Technology: Python
Description:
Specyfikacja regresyjna:
funkcja celu dla zmiany wartości wyjścia (np. osiągnięcie y\* lub przesunięcie o Δ),
Implementacja:
adapter/loss pod regresję juz istniejacego kodu (w praktyce bedzie koneiczna lekka modyfikacja juz istniejacej funkcji kosztu i wsparcie dla innego rodzaju modeli )
Ewaluacja:
zbiory tablicowe (np. UCI – małe, łatwe do replikacji),
metryki: validity (osiągnięcie celu), proximity, sparsity, czas obliczeń,
porównanie z prostymi baseline’ami (gradient/sign, DiCE – jeśli dostępny).
Demo: krótki notebook + integracja z dashboardem ACFX i przetestowanie czy aplikacja streamlit też działa z modelami regresyjnymi
The goal of the project: Celem projektu jest zintegrowanie w całość ewaluacji generowania kontrfaktó dla algorytmów detekcji anonalii
Technology: Python, PyTorch
Description: W szczególności chodzi o integracje w jeden ewaluacyjny pipeline nastepujacych algorytmów i wykonanie analizy danych na bazie tej ewalyacji które pozwoli określić
Algorytm detekcji anomalii PatchCore, Padim, DFM, i inne z paczki anomalib
Budujemy detektor anomalii, nastepnie dla każdego detektora budujemy kontrfakty każym algorytmem wymienionym wopisie, następnie przeprowadzamy ewaluację wyników. Kontrfakty maja działąć w dwie strony (dl kalsy normal generują abnormal, dla klasy abnormal generują normal)
The goal of the project: Zbudować prosty pipeline demonstracyjny, w którym model WinCLIP (zero-/few-shot na bazie CLIP) wykrywa i segmentuje anomalie na wybranych klasach z MVTec AD i/lub VisA, a wynik modelu jest od razu IRI węzła w małym grafie wiedzy (RDF). Następnie, z poziomu UI można wykonać zapytania (SPARQL) o zalecane działania/mitigacje dla danej anomalii
Technology:
Description:
Wybór danych (mały wycinek): na start 2 klasy z MVTec AD (np. bottle, screw) lub z VisA (np. candle, capsules) – tak, by mieć parę typów defektów (np. scratch, contamination, missing part).
Inference WinCLIP (zero-/few-shot): uruchomienie gotowej implementacji WinCLIP z prostą ensemble‑prompting dla stanów „normalny/anomalny + typ” (bez trenowania). Dla demonstracji wystarczy zero‑shot; ewentualnie few‑shot z 1–2 obrazami „good”.
Mapowanie → węzeł KG: wynik (etykieta/typ defektu) zamieniamy na konkretny IRI, np. ex:defect/visa/scratch lub ex:defect/mvtec/contamination. W RDF tworzymy minimalne klasy:
ex:DefectType (np. scratch, contamination),
ex:Cause (np. abrasive_contact),
ex:Action (np. line_stop, replace_guide_rail).
Zapytania / rekomendacje: proste kwerendy SPARQL: „podaj ex:recommendedAction dla danego ex:DefectType” + wyświetlenie w UI wraz z podglądem maski.
Ewaluacja (lekka): dla wybranej klasy raportujemy i‑AUROC/p‑AUROC oraz zrzuty ekranu; celem jest działający demo‑flow, nie bicie SOTA. (WinCLIP raportuje wysokie wyniki na MVTec/VisA w warunkach zero/few-shot – nasz cel to tylko potwierdzić działanie na małej próbce). ONtologia, rekomendacje/akcje – moga byc nieprawdziwe, chodzi tylkok o demo mozliwosci.
The goal of the project: Celem pracy jest wykorzystanie zbioru dancyh XAI-FUNGI do klasyfikacji grupy osób na bazie dialogów/akcji użytkownika.
Technology: Python, text analysis,
Description: Zbiór XAI-FUNGI zawiera transkrypcje wywaidów z ekspertami, studentami informatykami i studentami studiów nieinformatycznych. Każdy transkrypt jest plikiem CSV, z wydzielonymi fragmentami w których uczestnik analizuje na głos wybrany element charaktecryzujacy model do klasyfikacji grzybów. Celem jest zbudownaie klasyfikatora, który będzie staral się określić do jakiej grupy należy dany użytkownik, bazujać na tych transkrypcjach.
The goal of the project: Celem pracy jest przetestowanie funkconoalności narzędzia do mapowania wzroku (uwagi) użytkownika na różne modelaności (tekst, obraz, szeregi czasowe), oraz implementacja customowego daatsetu dla EKG,
Technology: Python, Psychopy, Tobii Eyetracker
Description: Nowy ECGTSDataset który będzie dziedziczył po istniejąceym TimeSereisDataset, ale skupiał sie będzie na poprawnej wizuzalizacji EKG z wykorzystaniem wizualizacji mitującej papier milimetrowy i z zachowaniem skali i odstępów niezb ednych do porpawnej analizy. Przykłady, wizualizacje, analizy wyników.
The goal of the project: Zbudować działający pipeline do ilościowego i wizualnego badania, jak poprzednia tura (t‑1) wpływa na odpowiedź w turze (t) w LLM. Projekt łączy atrybucję gradientową (Integrated Gradients/SHAP, toolkit Inseq) z testami przyczynowymi (activation/causal patching na TransformerLens/causal‑tracer), raportując m.in. „udział t‑1” w logitach odpowiedzi oraz logit‑difference w testach interwencyjnych.
Technology:
Hugging Face Transformers (małe modele dekoderowe; inference + logprobs/score)
Inseq – IG/Grad×Input dla LLM (wizualizacja atrybucji kontekst→odpowiedź)
Dane (mały, kontrolowany korpus): pary *(t‑1, t)*, gdzie w *t‑1* znajduje się fakt/warunek potrzebny do odpowiedzi w *t* (np. „Hasło: ALFA” → „Podaj hasło”).
Modele i uruchomienie: niewielki model dekoderowy (GPT‑2‑klasa / mały LLaMA) z dostępem do aktywacji/logprobs.
Baseline zachowania (2 warianty):
(a) `[t‑1 || t]` (pełny kontekst),
(b) `[t]` (bez *t‑1*),
(c ) sesyjny z KV‑reuse (prefill *t‑1*, potem *t*)
Atrybucja IG/SHAP (Inseq): IG dla kluczowych tokenów odpowiedzi względem tokenów wejścia (w tym *t‑1*); metryka „udział t‑1” = % sumarycznej atrybucji przypisanej tokenom *t‑1*; heatmapy (kontekst→odpowiedź).
Causal/activation patching – test przyczynowy (faithfulness):
„Corrupt → Clean”: zaszum/wyzeruj kluczowe tokeny w *t‑1* (prompt „corrupt”), następnie patch czystych aktywacji tylko dla tych tokenów (per warstwa/głowa).
Metryka: logit‑difference dla poprawnych tokenów odpowiedzi; silny wzrost po patchingu = dowód przyczynowego użycia fragmentów *t‑1*.
Porównanie: korelacja rankingów ważności tokenów *t‑1* (IG vs patching); różnice między (a)/(b).
Raport: metryki (udział t‑1, logit‑difference, zmiana logprobs, zgodność IGpatching )
The goal of the project: Badania nad różnymi metodami, które mogą być wykorzystane do opisu lub pomiaru różnic w granicy decyzyjnej klasyfikatora w kontekście danych syntetycznych
Technology: Python
Description: Mając dwa modele wytrenowane do tego samego zadania, jak wyjaśnić różnice pomiędzy nimi? Odnosi się to do problemu uchwycenia, zmierzenia i opisania Efektu Rashomona. To zadanie przenosimy teraz na dwa (lub więcej) modele wytrenowane na danych rzeczywistych oraz syntetycznych — co możemy powiedzieć o jakości danych syntetycznych, patrząc wyłącznie na własności zbioru Rashomona? Możemy zacząć od danych tabelarycznych, ale warto także spróbować na wizualnych zbiorach do detekcji anomalii (zobacz inny projekt dotyczący benchmarkowania kontrfaktycznych metod detekcji anomalii).
The goal of the project: Tune and prepare existing code for submission in an open challenge
Technology: Python, spaCy, LightGBM, scikit-learn
Description: “Given a (potentially obfuscated) text, decide whether it was written by a human or an AI. … Participants will submit their systems as Docker images through the Tira platform. It is not expected that submitted systems are actually trained on Tira, but they must be standalone and runnable on the platform without requiring contact to the outside world. The submitted software must be executable inside the container via a command line call.” You'll be provided with the last year's code and data. Your primary task is to incorporate at least one of the baselines into our own code and / or adding obfuscation to the training data.
Important dates: May 07, 2026: software submission; May 28, 2026: participant notebook submission“
The goal of the project: Expand our dataset with parallel multilingual data in various domains and analyse the dataset quality
Technology:
Description: The dataset was developed as part of a master’s thesis project aimed at evaluating and comparing the quality of multilingual language model outputs, particularly focusing on low-/medium-resource languages. The dataset design is parallel, i.e., we want to maintain a considerable overlap between languages in terms of genres / topics / domains etc. at the level of individual texts. Currently, the dataset is based on Wikipedia summaries. The high priority goal is expanding the number of genres in a controlled way. You will be able to work on data collection, documentation, analysis, and quality assurance. The dataset will be openly available and citable at the OSF.io platform.