Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revisionBoth sides next revision
jobs [2024/02/16 09:22] – [Theses and Student Jobs] kordingjobs [2024/05/02 10:51] – [Theses and Student Jobs] kording
Line 119: Line 119:
  
  
-== Übersetzung einer globalen Produktklassifikation in eine bestehende Ontologie (BA Thesis) ==+== Integration von common-sense anhand eines alltäglichen Beispiels (BA Thesis) ==
  
-In dieser Arbeit soll die GS1 Produktklassifikation in eine Ontologie transformiert werden. Der GS1 Produktklassifikationsstandard ist online ( https://gpc-browser.gs1.org/einsehbar. Anschließend soll in einem Jupyter Notebook anhand eines Beispiels gezeigt werden, wie andere Ontologien mit der erstellten Taxonomie verbunden werden können.+In dieser Arbeit soll anhand eines alltäglichen Beispiels (einem Roboter, der verschiedene Schneideaktionen ausführen können soll), common-sense Wissen in eine bestehende Wissensbasis integriert werden. Dazu soll der ATOMIC Datensatz betrachtet werden (https://allenai.org/data/atomic-2020).
  
 Die Aufgaben dazu sind: Die Aufgaben dazu sind:
-  * Einarbeitung in Web Scraping und Abfrage der Daten von GS1 +  * Einarbeitung in Wissensrepräsentation 
-  * Einarbeitung in Owlready und Erstellen der Taxonomie +  * Einarbeitung in Owlready und entitity linking 
-  * Erstellung des Jupyter Notebooks mit einem Beispiel, wie andere Ontologien verbunden werden können (die Beispielontologie wird gestellt) +  * Erstellung von Kompetenzfragen und Evaluierung der Integration
- +
- +
-Contact: [[team:michaela_kümpel|Michaela Kümpel]] +
- +
- +
-== Nutzung von chatGPT zur Erstellung von spezifischen Wissensbasen (BA Thesis) == +
- +
-In dieser Arbeit soll chatGPT (oder ähnliche Tools) genutzt werden, um maschinenlesbares Wissen für eine neue Aufgabe zu erstellen. Dabei sollen z.B. Umgebungsmerkmale und semantische Relationen abgefragt werden können. Die Arbeit soll geeignete prompts zur Erstellung solcher Wissensbasen erarbeiten. Die Informationen sollen anschließend per script extrahiert werden, so dass Agenten sie nutzen können.  +
- +
-Die Aufgaben dazu sind: +
-  * Einarbeitung in Prompting mit chatGPT o.ä. +
-  * Einarbeitung in Web Scraping und NLP parsing +
-  * Einarbeitung in Owlready und basic entitity linking +
-  * Erstellung eines guides zum prompten von chatGPT, das anhand von einem Beispiel evaluiert wird  +
-  * Erstellung eines Jupyter Notebooks mit einem Beispiel+
  
  




Prof. Dr. hc. Michael Beetz PhD
Head of Institute

Contact via
Andrea Cowley
assistant to Prof. Beetz
ai-office@cs.uni-bremen.de

Discover our VRB for innovative and interactive research


Memberships and associations:


Social Media: