-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Kunskapsfråga - (out of context) #120
Comments
Det är nästan inga privata svenska företag i Wikidata i dagsläget. Det finns vad jag vet inga öppna data alls om privata svenska företag. |
@jonassodergren smuts sparar jag på så mer tack
Jag är inte där ens i tanken mina tankar snurrar mer kring att man borde ha länkade data från leverantörerna vilka maskiner dom levererar och vilka muskelgrupper dom tränar se mina tankar vid min 19:00 Tanke QRC koder på alla kommuners saker
Tanke 2
Snygg lösning Stockholms stad feedback OT BILDER
Feedback jag fått*
|
@jonassodergren jag tror inte vi förstår hur mycket dialog som behövs... jag var med på ett Open Street Map event och då pratade man om Tag:access delivery dvs. med alla budjobb är det enormt viktigt att märka ut på husen vilken dörr budfirmor skall ta....
Min hemma filosof fundering är att detta måste systematiseras så vi inte får som för anslagstavlorna 290 smaker av kravinsamling...
|
@jonassodergren Det är där saker blir intressant att man ramlar över till 5-stardata OSM skriver bra om det / Key:wikidata / Why link to Wikidata? |
Gillar idén med QR-koder. Kanske en kod för att räkna besök, en kommun borde vilja se hur allmännyttiga platser används och hur de uppfattas. |
Japp feedback borde dagens teknik göra enklare i Holland fick cyklister en knapp på styret som dom tryckte på då dom uppfatta trafiksituationen jobbig.... liknande för astma... Stockholms stads pratskärmar... upplevd trygghet Hade jag trott mer på nationella dataverkstaden hade jag föreslagit att dom skulle implementera något liknande QRpedia där telefonens inställningar avgör vilket Wikipedia språk du kommer till och dom genererar unika QRC koder...
|
Lång video om att koppla ihop med Wikidata, dataportalen, Scholia POC hur man skulle kunna koppla dataportalen och Anslagstavlorna till Wikipedia
En tanke hur strukturerad data skall kopplas till dataportalens dataset med samma som Wikidata, samma med Anslagstavlorna,......
|
Bra POC. Det blir ju tydligt (om det inte var det innan) att en fritextsökning inte är optimalt för att "identifiera" ett dataset. |
Jag ska rådfråga någon som är duktig på specen. Men jag kollade lite fort: https://www.w3.org/TR/vocab-dcat-2/#Property:resource_identifier. Det ser faktiskt märkligt ut att en identifierare enbart finns på katalogen och inte specifika dataseten i katalogen. Ska undersöka det mer noggrant. |
Coolt Jag har lyft frågan
|
Det som är snyggt är vetenskapliga dokument och Scholia där har man gjort hemläxan och infört DOI och ORCID... Google har ett bra dokument "Building Google Dataset Search and Fostering an Open Data Ecosystem" Sedan är nog 100 miljarders frågan vad är optimalt gissar att det inte är B-laget hos Google som funderar hur saker skall struktureras och göras "findable"... Steg 0 tror jag att vi får en öppen data vision som är gemensam. Lyssnar jag på
Röran med Skolmat <-> dataportalen sedan
Fostra en community ;-) starta med DOI Att starta med reconciliation
Jämför Google dataset search "Reconciling to the Google Knowledge Graph" se även video "The Google Dataset Search Engine" Att ta ledarskap
|
Jo google har ett bra tänk såklart. Men jag tror att dataportalen.se räcker väldigt långt för Sverige om den börjar användas. Fler behöver nog bara kavla upp ärmarna och börja dela, och när man ändå delar så bör vi börja använda identifierare och tänka till lite på bästa format. Kritiken som lyfts på forumet kan kondenseras till dessa två punkter tror jag. Exempelvis https://www.dataportal.se/sv/datasets/180_5782/jobadlinks-jobbannonsfiler-annonser-jobtechlinks-2021-04-24targz är i format från schema.org och just google med flera är såklart intresserad av att indexera den informationen. Så det går att få dessa portaler att hänga ihop med små medel. I issuen ovan diskuteras kategorisering av dataset om jag förstår rätt, tänker att det inte löser problemet helt. Betrakta exempelvis https://www.dataportal.se/sv/datasets/180_6676/jobsearch-trends , det är id:t 180_6676 som är lite magiskt idag. Givet ett känt sätt att producera det id:t så borde det bli mycket enklare att börja koppla ihop dataseten som du efterfrågar. |
Det här inte lätt hur tänker du med datasets/180_6676/jobsearch-trends skall kopplas?
|
Delar din vision om vad som är möjligt om bara grunderna blir rätt. Källan till API:et ovan är https://data.jobtechdev.se/annonser/search-trends. I den mappen så finns även ett dcat-extrakt som beskriver datasetet. Det jag har svårt att få ihop är att id-numret till datasetet inte skapas av den som skapar datasetet. Tänker att det blir svårt att bygga kunskapsgrafer om den som tillhandahåller ett dataset inte kan länka till sitt egna dataset på ett förutbestämt sätt. Så jag är på en lite mer "basic" nivå än dig. =) |
Är inte DOI lösningen? tror inte man skall lita på att saker som dataportalen etc. finns för evigt....
nja jag famlar enormt men Wikidata är lite kul eftersom det inbjuder till att testa nya saker... Jag har inte blivit kompis med DCAT ännu tyvärr... |
Exempelvis DOI skulle kunna vara en lösning. Men aktören som tillhandahåller datasetet behöver börja skapa ett sådant id alt annan vettig beständig identifierare. Känns rimligt att det borde gå att beskriva i DCAT. |
Det är lite geggigt kollar jag på dct:identifier "https://data.jobtechdev.se/annonser/jobtechlinks/2022-03-04.tar.gz#about1" så är det inte trivialt att hitta den på dataportalen
Borde finnas ett mervärde att enkelt kunna hoppa mellan dom olika portaler i en perfekt värld så skulle det finnas kopplingar hos data.europa.eu till andra liknande dataset
|
Precis, alla avser samma dataset, blir geggigt iom att inget unikt identifierar datasetet. Det är så uppenbart att det saknas att jag börjar fundera på om jag tänker fel på något sätt. =) |
Tycker Google AI blog uttrycker det bra "Building Google Dataset Search and Fostering an Open Data Ecosystem" Connecting Replicas of Datasets Det antipattern jag tycker jag ser är att när tekniker snöar in i RDF syntax tappar man användarna och slutresultatet blir katastrof - gissar att dataportalen och ladda upp data känns komplext för dom som borde kunna den.... Denny som skapade Wikidata pratar ibland om att det skall vara lätt att göra rätt idag är det inte det... tips testa lek med Wikidata jag tycker dom lyckats ganska bra... Tips2 Kolla lite på citation graphs där lyckas man med att vetenskapliga publikationer kan dyka upp på massa ställen och citera andra tidsskrifter som skrivits av andra gubbar Annan intressant tanke är att ändringshistoriken skall kommuniceras
SKOS - Simple Knowledge Organization System
|
Frågan om tillit är intressant. Tycker ovan "affärsmodell" kunde användas mer för dataset https://arbetsformedlingen.se/platsbanken/annonser?s=2 (datakällan är ovan https://data.jobtechdev.se/annonser/jobtechlinks/2022-03-04.tar.gz). Myndigheten kan visa upp flera annonser för användaren, men samtidigt är det tydligt att myndigheten inte kan ansvara för annonsen som den länkar till. Just att länka till wikidata, youtube, andra myndigheters dataset blir mindre av en trustfråga om man faktiskt låter slutanvändaren vara med i bedömningen om de kan lite på informationen. Blir lätt byråkratiskt och en onödig överbyggnad om offentliga organisationer ska få bestämma vilken information som "får vara ihoplänkad". |
Japp vi måste bort från textsträngar så långt det går. "Things not strings" |
Japp tillit är viktigt när vi får detta att snurra
En galenskap jag kanske ser komma är det jag ser med projektet Riksdagens corpus är att det saknas bra källor som är maskinläsbara på Riksdagsmän från Riksarkivet och KB fast dom jobbat i 400 år så då måste man välja Wikidata med alla dess fel och brister se welfare-state-analytics/riksdagen-corpus/wiki/ Skapade nyss en video hur mycket tid det tar att skapa kvalitet
tror jag starta 2022 jan och har gjort hälften...se dialog med ML projektet |
Här är ett exempel på strings från Linköpings kommun: GET /api/3/schools/nearby/?latitude=57.7840241562&longitude=14.2806602478 HTTP/1.1 HTTP/1.1 200 OK { |
Det galna här är
Lesson learned: är halvt omöjligt att få folk att inse vad Linked data är Grundfelet man jobbar inte strukturerat utan i SÌLOS och alla har sin agenda att fakturera, visa upp sig, är rädda för förändring se hur skridskoklubbar jobbar |
Fattar. Men ovan sökning ger id på skolorna? Menar ni att id:et är internt och saknar innebörd? |
Bara en idé. Vilken självbedömning? |
Om femstjärnemodellen införs som ett användbarhetsindex på Dataportalen som ett obligatoriskt fält så blir det uppladdarens (vilket i de allra flesta fall också är myndigheten som producerar datasetet) självbedömning. |
Jag tror det är bra med att enkelt kunna dela erfarenheter och/eller var projekt finns som använder ett visst data set.. Kanske sätta upp en Wiki där man kan beskriva problem/önskningar vore bra. Tycker vi hittar hela tiden nya saker i dataset som borde dokumenteras... idag då de flesta inte har en backlog förrsvinner den erfarenheten... Det utkast jag gjorde på hur jag uppfattar Riksarkivet SBL som är en extremt trovärdig källa men enormt skitigt data som dom är långsamma att rätta... https://sv.wikipedia.org/wiki/Anv%C3%A4ndare:Salgo60/Source:SBL Tycker vi ser med Riksdagens data massa saker som bör dokumenteras. När Riksdagen själva saknar en yta för detta kan en wiki vara bra
|
Jag gillar idén med att bedöma myndigheterna hur de överlag klarar av att dela öppen länkad data. |
Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det. |
Håller med men då betyder det att alla lagdelar måste fungerar. Idag ser vi bara gegga och vi saknar styrning som användare mistral pekar på och då måste vi runda detta... Samma problem med skalning har vi i Wikidata hela tiden men eftersom det nästan aldrig fungerar så blir det massa merarbete i Wikidata och verktyg som Wikidata:Mismatch_Finder tas fram för att runda dysfunktionella system. Exempel vad vi ser
Tycker min analogi att myndigheter/kommuner/arkiv... bör vara lika funktionella som proffsiga skridskoklubbar och nedanstående modell är bra... tycker dom flesta vi kommunicerar med är på Level 1 "Process unpredictable, poorly controlled and reactive" --> vi kan inte lita på dom, vi kan inte spåra vad dom gör utan det är en process lika tillförlitlig som att säga till en tonåring att städa sitt rum ;-) --> vi måste runda detta och skapa ett "mellanlager" som alla kan uppdatera... vi har testat dagens system som bygger på att organisationerna själva tar ansvar och bygger upp egen kompetens sedan innan 2013 som du vet video min slutsats dom gör inte sin arbetsuppgiften och vi lider av att dom är på nivå 1 Level 1 "Process unpredictable, poorly controlled and reactive" @Ainali du som varit med på hela resan vad talar för att det skall fungera 2022...? Jag tycker jag ser denna galenskap hela tiden
|
Håller med om att det enda skalbara och långsiktiga alternativet är att den ansvariga självskattar och redovisar. Min poäng var nog att dels tar det väldigt lång tid (många år) att införa. Går det att prova och se om det skulle tillföra något för låt säga 10 organisationers separat av användarna och inte producenten? Fungerar det inte så fungerar det inte. Fungerar det så är det enklare att skala upp en sådan MVP. |
Det behövs inga lagändringar för att lägga till ett fält i formuläret på Dataportalen. Inga av de andra fälten finns definierade i lagtext. Det här kan DIGG göra i eftermiddag om de vill. |
lagändringar = rätt personer i laget , inte lagtext.... lag hjälper inte när organisationer är dysfunktklnella och saknar ledarskap/vision se Rättsinformationsprojektet och 15 års uthållighet resultat 0 DIGG laget idag sitter och funderar i 4 månader om dom kan ändra en timeout på diskussionsgruppen, dom kan inte ge oss unika helpdesk id:n... enormt rädda.... utan vision.... när jag lyssnade på DIGG i Almedalen verkar dom bara vilja vara kompisar och bli fler... |
Håller helt med om detta. Det är nog inte dumt med ett buffertlager nu när det är såhär kasst jämt. De får helt enkelt rycka upp sig och städa i eget hus om de ska få vara med i världsklass (i WD). Levererar de inte så gör de inte det. Då ska man tydligt kunna se vad vi vill ha och vem som klarar av det. På vandringsleder är det 1/290 kommuner vad jag har hittat hittills som klarar av att leverera ett minimum av kvalitet. Jag tycker vi ska bilda en ny demokratisk ideell organisation för datakonsumenter som bildar opinion på området och ger kudos/pris till dem som faktiskt levererar. Då kan vi fråga tripadvisor, google, öppna Skolplattformen, m.fl. om de vill vara med. Vi kan vara konkreta med vad vi önskar av myndigheterna och samordning och tvärsektoriell styrning för att faktiskt kunna få till ett vettigt öppen data ekosystem. Nu har vi ju ett trasigt ekosystem och en massa huvudlösa höns som inte styrs av någon som är tydlig på regeringsnivå. Intresset i politiska partier för öppen data verkar vara lågt. Det skulle vi kunna jobba mera målriktad med också. |
Om du vill slippa det administrativa med driva en organisation känns det som att det är verksamhet som skulle kunna inkluderas i antingen CivicTech Sweden eller Open Knowledge Sweden. |
Jag hade en timmes snack med Jonas StorStockholm och saker som ramlade ut
|
Kan tipsa om https://www.swedishjobtech.se/ (angående värdförening) som har mycket erfarna projektledare och som verkar för öppna data på ett väldigt positivt sätt. De kanske kan vara intresserade av denna dialog. Uppmärksammar de på denna tråd. |
Trevligt det "problem" jag fastna i med Jobtechs data och yrken SSYK var att det blev så komplext... |
Apropå arbetsgivare och grafer och länkar så har jag förstått att bolagsverket tar betalt för sin data delvis för att finansiera Svenska akademin (som för övrigt också underpresterar i mina och Magnus ögon för de har skitig data) |
Tack @jonassodergren för att du pingade oss i Swedish JobTech. Vår ambition är att driva på inom området datadriven matchning, i vid bemärkelse. Vid gör det genom kontakt med politiker och andra personer i myndigheter, företag, organisationer etc. Och vi gör det genom att anordna olika slag av event. Vi har också med hjälp av ett av "våra" startup-företag, https://www.assedon.se/ och data från SCB och TIllväxtverket tagit fram matchningskollen.se Vi tar gärna emot tips och idéer om vad vi skulle kunna göra mer inom vårt område. Eftersom vi arbetar ideellt har vi blygsamma ekonomiska resurser att använda. Kolla gärna på vår sajt swedishjobtech.se vad vi har på gång. |
Skrik till om ni vill ha kontakt @Sjolars
2-2) webscrapar Riksarkivet SBL eftersom dom saknar API - skapar samma som Wikidata egenskap P3217 - detta startade 2016
2-3) Notebook som kollar Svenskt Kvinnobiografiskt lexikon dom har API men fattar inte Linked data pratade på deras stygruppsmöte 2020 slides 2-5) Litteraturbanken där litteraturbanken använder Wikidata för att länka Riksarkivet etc... det tragiska här att dom länkar Wikidata mer än Kungliga biblioteket.... se notebook status. Jag har försökt ha en dialog med Kungliga biblioteket om att jobba ihop mer men funkar inte dom vill vara en SILO se video fråga till KB 2018 dec med bra svar av Niklas men 2022 ser vi inget hänt
IA "Litteraturbanken <-> LIBRIS <-> WD #1015" org https://github.com/libris/librisxl/issues/1015 2-6) jag gör en aktivitet med Skansens data salgo60/SkansenWikidata och lite lite med @AnnaKarinSkansen där bland annat jag försöker få dom att fundera över SKOS 2-7) kopplat ihop Runstenar och i vilka böcker i Litteraturbanken dom beskrivs på se salgo60/Litteraturbanken_wd_runes skrev ett papper om hur dataroundtripping med bilder kan fungera med Wikicommons som har strukturerat data för bilder video och pratade på LD4 2021 om det video 2-9) Svenskt Porträttarkiv så har en gubbe scannat 800 000 bilder och tror jag 500 000 bilder på hus.... jmf 90 museer som lagt upp 2 miljoner bilder på 10 år på Digitalt museum.... vi kopplar samma som WD och hämtar in deras bilder se projektyta för javascript som fixar bildhämtning 2-10) Webscrapar Svenska Akademin och skapar samma som Wikidata med en egenskap jag begärde skulle skapas 2-11) Wikidata är dom som har bäst koll på historiska Riksdagsmän --> när ML forskare skall göra om Riksdagstrycket så länkar dom WD se mer info 2-12) POC koppla böcker om kyrkor till Wikidata och bok om Riddarholmskyrkan till personer i boken se salgo60/SamlaLibris 2-13) Kopplat ihop Svenska församlingar med Wikidata, Riksarkivet - websida 2-14) Koppla kommuners sidor om medborgarförslag till Wikidata, anslagstavlor och WIkibase.cloud 2-15) Koppla ihop hembyggdsföreningar med WIkidata 2-16) Bokförlaget Kriterium.se lärde dom att skapa poster i WIkidata websida
2-17) old Dashboard e.g. Connect 160 000 artist in Europeana with WD lesson learned they send text strings = #metadatadebt 2-18) tittade även på hur Esam publicerar dokument utan maskinläsbar metadata. Inser då att i lagrummet saknas författningssamlingar --> att jag synade ett havererat projekt Rättsinformations systemet som under 15 år försökt få 100 myndigheter att i maskinläsbar form publicera sina författningar, 2015 gav man upp det som starta 1998 i en 160 siders förstudie Ds 1998:10
|
Tack Magnus,
//Lars
…-------------------------------------------------------------------------
Lars Sjöström
Tel: +4670 575 96 36
Stråkvägen 50, SE 191 43 Sollentuna, Sweden
e-post: ***@***.***> ***@***.***; ***@***.***> ***@***.***
Från: Magnus Sälgö ***@***.***>
Skickat: den 15 september 2022 08:27
Till: salgo60/ProjectOutdoorGyms ***@***.***>
Kopia: Sjolars ***@***.***>; Mention ***@***.***>
Ämne: Re: [salgo60/ProjectOutdoorGyms] Kunskapsfråga - (out of context) (Issue #120)
Vår ambition är att driva på inom området datadriven matchning, i vid bemärkelse. Vid gör det genom kontakt med politiker och andra personer i myndigheter, företag, organisationer etc. Och vi gör det genom att anordna olika slag av event.
Skrik till om ni vill ha kontakt @Sjolars <https://github.com/Sjolars>
1. jag har skrivit ihop en Magnus list vad man skall uppfylla för att vara bra att koppla ihop med Wikidata
1-1) mycket bra video av en enormt skarp utvecklare på Standford zoom som går igenom den listan vid 26 min
2. Exempel saker jag gör
2-1) Mobelprize.org notebook - där gjorde vi om hela deras länkmodell för att var så mycket länkröta...
2-2) webscrapar Riksarkivet SBL eftersom dom saknar API
2-3) Notebook som kollar Svenskt Kvinnobiografiskt lexikon
2-4) En snabb koll på Historiska yrke i olika databaser och konstatera gur dåligt det är och en inbjudan till massa aktörer att jobba ihop.... lesson learned dom föredrar SILOS
2-5) Litteraturbanken där litteraturbanken använder WIkidata för att länka Riksarkivet etc... det tragiska här att dom länkar Wikidata mer än Kungliga biblioteket....
2-6) jag gör en aktivitet med Skansens data salgo60/SkansenWikidata <https://github.com/salgo60/SkansenWikidata> och lite lite med @AnnaKarinSkansen <https://github.com/AnnaKarinSkansen>
2-7) kopplat ihop Runstenar och i vilka böcker i Litteraturbanken dom beskrivs på se salgo60/Litteraturbanken_wd_runes <https://github.com/salgo60/Litteraturbanken_wd_runes> skrev ett papper om hur dataroundtripping med bilder <https://meta.wikimedia.org/wiki/Structured_data_for_GLAM-Wiki/Roundtripping/KMB> kan fungera med WIkicommons som har struktureragt data för bilder video <https://www.youtube.com/watch?v=lmWmMIuCJVM> och pratade på LD4 2021 <https://ld42021.sched.com/> om det video <https://www.youtube.com/watch?v=GeDXzInR_mA>
3. Datastory och WD user xxxx har kopplat ihop enormt mycket dels Riksdagsdokument men även skolenheter
—
Reply to this email directly, view it on GitHub <#120 (comment)> , or unsubscribe <https://github.com/notifications/unsubscribe-auth/A3CJZDOWEI5KUKUPHCM2RK3V6K6T7ANCNFSM6AAAAAAQIKY7YQ> .
You are receiving this because you were mentioned.Message ID: ***@***.***>
--
Det här e-postmeddelandet har genomsökts efter virus av Avast-antivirusprogrammet.
www.avast.com
|
@Sjolars Skrik till vad ni vill ha jag uppdaterar mitt inlägg med lite fler länkar..... En användare @SchermanJ gör en cool grej som @Ainali startade med att koppla Riksdagens dokument till ämnesord se Kopplingssprint
|
I fallet med motionerna har vi nu strax över 32 000 motioner med ett huvudtema. I fallet med Trafikutskottet är det över 5000 motioner, och cirka 43 % av det totala som har ett ämne. Det börjar bli användbart och möjligt att se vilja ämnen och frågor som är de mest intressanta för ledamöter att driva. |
Cool video! Lärde mig mycket. Såg att du visade att openstreetmap kan länka tillbaka till ett q-nummer i wikidata. Vet du om det används av arbetsgivare för att beskriva sina arbetsplatser/företag i någon omfattning idag? Finns lite att utforska för vår verksamhet tänker jag (jobtech/af)? Sorry att jag smutsar ner din tråd om utegym. Kan slänga in en fråga om utegym, har märkt att flertalet utegym har chinsstänger som är designade av personer som aldrig gjort en chin, dvs att stången inte är stum. Antar att den datapunkten inte i ditt dataset.. =)
The text was updated successfully, but these errors were encountered: