Posts

Es werden Posts vom März, 2020 angezeigt.

Mini-Projekt 2020-03-25: Begriffsbaum mithilfe von SPARQL & Python erstellen - Wikidata-Visualisierungen

Bild
Begriffsbaum mithilfe von SPARQL & Python erstellen - Wikidata-Visualisierungen Nebenherentdeckungen (ich wusste es halt noch nicht ;-) ) Wikidata Graph Builder https://angryloki.github.io/wikidata-graph-builder/ https://angryloki.github.io/wikidata-graph-builder/?mode=wdqs&wdqs=SELECT%20%3Fitem%20%3FitemLabel%20%0AWHERE%20%0A%7B%0A%20%20%3Fitem%20wdt:P31%7Cwdt:P527%7Cwdt:P279%20wd:Q17155032.%0A%20%20SERVICE%20wikibase:label%20%7B%20bd:serviceParam%20wikibase:language%20%22%5BAUTO_LANGUAGE%5D,en%22.%20%7D%0A%7D Wikidata:Tools/Visualize data/de - Wikidata Coole Tools. https://www.wikidata.org/wiki/Wikidata:Tools/Visualize_data/de ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ Diese Art der Darstellung suche ich noch: Vielleicht ist bei den oben angegebenen Links was dabei, habe bisher nur kurz mal reingeschaut. Sie stammt aus diesem Tutorial: Linked Data: combining data from Wikidata and Eurostat datasets http://pyvandenbus

Zum Weltenbau

Bild
Die Welt ist nicht optimal für alle gebaut, sondern vor allem gut für die, die am schnellsten bauen können. (Behauptung) Kinder, die keinen Auftritt vor der Klasse brauchen, blühten auf, sagt Halstenberg. Kinder, die morgens ihren Schlaf brauchen. Kinder, die "eine starke innere Fantasiewelt" haben. "Auch Kinder, die in der Schule manchmal mächtig anecken." All sie können jetzt in ihrem eigenen Tempo lernen. Für sie ist es ein Weltenwechsel ins Glück, bislang.   https://www.zeit.de/gesellschaft/schule/2020-03/unterricht-homeoffice-hausaufgaben-homeschooling-paedagogik Dieser Post ist ein kompletter Stub. Verbessere ihn, wenn du kannst! ###################################  

Mini-Projekt 2020-03-25: Begriffsbaum mithilfe von SPARQL & Python erstellen - Teil 3

Bild
Begriffsbaum mithilfe von SPARQL & Python erstellen - Teil 3 Hui! Fast schon fertig! (Nur ein, zwei Kleinigkeiten sind noch suboptimal - finde die Fehler!) Code from ete3 import Tree import pandas as pd #Warmspielereien unrooted_tree = Tree( "(A,B,(C,D));" ) print(unrooted_tree) rooted_tree = Tree( "((A,B),(C,D));" ) print(rooted_tree) rooted_tree = Tree( "(Informatik,((Bastelstube,Bastelhuber),(Wastel,(Wastelhuber,Splock))));" ) print(rooted_tree) rooted_tree = Tree( "(Bastelstube,Bastelhuber,(Wastelhuber,Splock)Wastl)Informatik;", format=1 ) print(rooted_tree.get_ascii(show_internal=True)) #Lesen des als pickle gespeicherten DFs unpickled_df = pd.read_pickle("/home/zarko/Dokumente/KnowledgeGraph/subclasses_df.pickle") print(unpickled_df) #Programm from ete3 import Tree, TreeStyle, TextFace, add_face_to_node from collections import defaultdict def build_tree(nodes):     root = None     for i in nodes:         if i[0] == '

Mini-Projekt 2020-03-25: Begriffsbaum mithilfe von SPARQL & Python erstellen - Teil 2

Bild
Begriffsbaum mithilfe von SPARQL & Python erstellen - Teil 2 Nach Möglichkeit immer schön auf das Wesentlich reduzieren - wenn's geht + wenn fim kann Ein weiterer kleiner Schritt Richtung Begriffsbaum, ein großer Schritt für mich kleines Würmchen. https://www.spiegel.de/wissenschaft/natur/australien-dieser-wurm-koennte-unser-ur-ur-ur-ur-urahn-sein-a-624beced-e49e-47c2-80fc-8c7c4843412d Sind wir nicht alle ein bisschen Wurm? Code import time import requests import pandas as pd from tabulate import tabulate from collections import OrderedDict url = 'https://query.wikidata.org/sparql' def subclass_finder(wd):     bracket_open = "{"     bracket_close = "}"     query = (f"SELECT ?item ?itemLabel\n"              f"WHERE\n"              f"{bracket_open}\n"              f"?item wdt:P279 wd:{wd}.\n"              f"SERVICE wikibase:label {bracket_open} bd:serviceParam wikibase:language '[AUTO_L

Mini-Projekt 2020-03-25: Begriffsbaum mithilfe von SPARQL & Python erstellen - Teil 1

Ich mache mich grade etwas vertraut mit SPARQL und dem Abfragen der Wikidata-Datenbank mithilfe von Python. Die ersten Schritte (in PyCharm - evtl. erstelle ich später ein Google-Colab-Notebook für den öffentlichen Zugriff): Code import requests import pandas as pd from collections import OrderedDict url = 'https://query.wikidata.org/sparql' query = """ SELECT ?item ?itemLabel WHERE {   ?item wdt:P279 wd:Q21198.   SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en".} } """ r = requests.get(url, headers={                     "UserAgent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.183 Safari/537.36"},                     params = {'format': 'json', 'query': query}) data = r.json() print(data) results = [] for item in data['results']['bindings']:     print('Daten:', data)     results.append(Ordere

Kompetenz

Die Kompetenzgröße. Je besser ein Fachkundiger in seinem Fachgebiet heran- und hinauszoomen kann, desto größer ist dessen Fachkompetenz (Behauptung). Es ist zu klären, was in diesem Fall unter "besser" zu verstehen ist. Für meine Annahme gehe ich von einer Weite/Tiefe aus, die möglichst tief und hoch reicht (Spannweite), sowie von einer Art Geschwindigkeit (Zeitkosten) beim Zoomen. Und zu einer solchen Fertigkeit (so nenne ich das mal) kommt noch eine weitere Qualität hinzu: Beim Beschäftigen mit den Details das Große/Ganze nicht aus den Augen (aus dem Sinn, aus der Intuition) verlieren, beim Beschäftigen mit dem Großen/Ganzen wichtige Details nicht aus den Augen (aus dem Sinn, aus der Intuition) verlieren. Das nur mal so grob ins Unreine formuliert, erstentwurfsskizziert. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ Wikidata Queries https://query.wikidata.org Query  1 #Wikidata items of Wikipedia articles #Returns a list of Wikidata items for a given l