Open Password - Dienstag,

den 30. Januar 2018 2018

#314

 

London Info International – Elgin Helen Jakisch – Künstliche Intelligenz – Internet der Dinge – Vincent Cassidy – Research Information – StartUps – Datenanalysten – Alfred Rolington – Cyber Security Intelligence – Drohnen – Verlage – Tahir Mansoori -Wizdeo.ai – Andrew Ng – Stanford – Borislav Popow – Ontotext – Klaus Kater – Deep Search Nine – Individualisierung – Pharmazeutische Industrie – Big Data – Big Insight – Ziyad Marar – Sage Global Publishing – Platform Overload – Haralambos Marmanis – Copyright Clearance Center – David Smith – IET – BBC – Fernsehen der Zukunft – Figshare - Overleaf

 

London Info International

Künstliche Intelligenz - die neue elektrische Energie für die Infobranche


Nach Dampfmaschine, Fließband und Internet
das Internet der Dinge

 

„Platform Overload“ und Plattform-Dilemma und jedem seine eigene Suchmaschine

Von Elgin Helen Jakisch

Die LII ist eine Konferenz für Best Practices der Informationsnutzung in wissenschaftlichen und professionellen Feldern. Teilnehmer aus vielen Ländern und Kontexten sollten gemeinsam Visionen und Strategien in einer sich rasant wandelnden digitalen Welt diskutieren, wie Vincent Cassidy, Co-Chair der Konferenz im Vorwort des Programmheftes erläuterte. Wunsch der Organisatoren war es, die „plurality of voices and opinions of all those engaged in information, knowledge and discourse“ zu Wort kommen zu lassen.

Der Pre-Conference Day wurde am 4. Dezember von der bekannten Zeitschrift Research Information für Verlage, Bibliotheken und Forscher mit dem Fokus auf Veränderungen in der Wissenschaftskommunikation abgehalten. Die eigentlichen Vortragsessions am 5. und 6. Dezember befassten sich mit Aspekten von Open Science und Open Access, der Suche nach neuen Impact-Faktoren und konkreten Lösungsbeispielen mit Hilfe von Big Data in Unternehmen oder Herausforderungen durch den Datenschutz und das Urheberrecht. Darüber hinaus wollte man gesellschaftspolitische Themen erörtern wie die Auswirkungen von Fake News, Industrie 4.0, den Umgang mit der Ungewissheit über die digitalen Entwicklungen und den Einfluss der Mediennutzung von Millenials auf die Informationsbranche.

Mit einem hochkarätig besetzten Panel bot die Londoner Konferenz an zwei Tagen Vorträge von führenden Akteuren namhafter Institutionen der britischen und internationalen Informationsbranche. Vertreter großer Verlage wie Sage oder Springer, Provider wie RightsDirect und Entscheidungsträger aus Universitäts- und Unternehmensbibliotheken standen auf der Liste der Redner. Dazu hatte man „Informationsbearbeiter“ ganz neuer Art eingeladen: StartUps aus der Verlagsszene und algorithmisch denkende Datenanalysten, die das Mining von Big Data ihr Geschäftsmodell nennen und ihre Services nun den traditionellen Branchen anbieten. Insgesamt versprach das Programm ein „Cross Over“ an unterschiedlichen Daten- und Denkwelten.

Etwa 40 Firmenaussteller ergänzten die Konferenz mit zeitgleichen Vorträgen zu Produkten und Lösungen. Die Autorin setzte den Schwerpunkt des Tagungsbesuches auf gesellschaftspolitische Themen, Vorträgen zu Big Data und KI (Künstliche Intelligenz), Open Sciences und Neugierde auf Ideen aus der StartUp-Szene.

________________________________________________________________________

Die vierte industrielle Revolution.

________________________________________________________________________

Gleich am ersten Tag stimmte eine gesellschaftspolitische Keynote den Hörer auf den „digitalen Schock“ ein. Die vierte industrielle Revolution kündigt sich an. Alfred Rolington, CEO der Cyber Security Intelligence, wagt einen Ritt durch die drei vorangegangenen technischen Revolutionen. Dampfmaschine, Massenproduktion und Internet hätten die Gesellschaft radikal verändert - und nun käme das Internet der Dinge. Wie bei allen gewaltigen Umbrüchen werden auch hier alte Denkmuster abgelöst. Bald werden digitale Analysen mit der Schnelligkeit von Gedanken ablaufen und in vielen Lebensbereichen Prozesse nutzbringend steuern.

In spätestens zehn bis fünfzehn Jahren werden wir erste Auswirkungen spüren. Rolington nennt als Negativbeispiel die Entwicklung militärisch genutzter Drohnen, die bald Entscheidungen am Einsatzort selbst treffen werden. Hier bedarf es dringend einer öffentlichen und ethischen Debatte über Technik und Verantwortung.  Rolington ist sicher, dass kein berufliches Umfeld ohne IT-Hilfsmittel auskommen wird. Deren Weiterentwickelung muss kontinuierlich kritisch begleitet werden. Daten, Content, Analyseziele und -ergebnisse werden in einem ständigen Kreislauf ineinandergreifen. Rolington appelliert an die Verlage, Player im Kreislauf der Wissensproduktion zu sein, da sie traditionell qualitativ hochwertige Ergebnisse hervorbringen.

________________________________________________________________________

Folgt auf Big Data „Big Insight“?

________________________________________________________________________

Eine Session beschäftigte sich intensiv mit der „Geburtsstunde neuer Informationstechnologien“ (Birth of New Infotech). Hier ging es um das Potenzial von KI für die Präsentation und Nutzung von Informationen. Derzeit öffnen sich Verlage und Provider den Möglichkeiten der semantischen Anreicherung und extrahieren Zusammenhänge ähnlich einer Verschlagwortung. So können mit Hilfe von Datenanalysen Sammlungen erschlossen werden. „Künstliche Intelligenz ist die neue Elektrizität“, so Tahir Mansoori (Wizdom.ai) und zitiert damit Andrew Ng von der Stanford University. Was bedeutet diese Erkenntnis für Verlage, wenn die Internet-Titanen dies längst erkannt und umgesetzt haben? Mansoori ist sich sicher, dass man Wissenschaftler und ihre Arbeit in Zukunft im Kontext ihres datenbasierten Ökosystems von Themen, Zitationen, verwandten Autoren, Forschungsdaten und Patenten sehen muss. Diese Daten werden in einer Art Dashboard visualisiert und erleichtern die Einordnung einer wissenschaftlichen Publikation in ihr gesamtes datenbasiertes Umfeld.

Aber ist das so einfach umsetzbar? Borislav Popov, Leiter von Ontotext, schildert das Problem, dass Daten oftmals hinter den verschlossenen Türen der Erzeuger liegen. Sie sind nicht ohne weiteres zugänglich, um für Analysen ausreichende Verbindungen zwischen Datentypen oder zwischen verschiedenen Providern herzustellen. Noch sei viel IT-Support dafür notwendig. Popovs Traum ist der Analyse-Self-Service für jeden Wissenschaftler über alle Verlage hinweg, der maßgeschneiderte Antworten liefert.

Utopie? Vielleicht findet Klaus Kater von der Deep Search Nine GmbH eine Antwort. Er hat Projekte in Pharmaunternehmen durchgeführt und festgestellt, dass man dort oft nicht weiß, wie und warum genau beim Einsatz von KI ein Ergebnis zustande kommt. Das will er ändern und transparenter gestalten. Auch Kater stellt eine eigene Vision vor: Irgendwann werde jeder seine eigene Suchmaschine kreieren, die Daten automatisch aus den relevanten Pools zieht und individuelle Fragen beantwortet. Er sieht in der Pharmaindustrie derzeit die größten Potenziale, Big-Data-Projekte anzuschieben. Die Finanzindustrie ist seiner Meinung nach noch zehn bis fünfzehn Jahre in ihrer Datenentwicklung zurückgeblieben. Um bei fundierten Analysen interdisziplinär zu werden, sind offene Schnittstellen über APIs notwendig (siehe http://www.deepsearchnine.com).

Big Data ist demnach endgültig in der Informationsbranche angekommen. Kommt nach Big Data „Big Insight“? Diskussionen über hybride Welten, den Übergang von Print nach Online, werden auf dieser Konferenz nicht mehr geführt. Der Wandel ist zumindest im STM-Bereich vollzogen. Auch die Rechts- und Sozialwissenschaften sowie andere Disziplinen ziehen nach und generieren mehr Daten für eine systematische Analyse. Ziyad Marar, Co-Chair des Programmkomitees und Präsident von Sage Global Publishing, sucht in seiner Keynote die Anwesenden von den Innovationspotentialen von Big Data im Verlagsbereich zu überzeugen. Ganz im Gegensatz zu vielen Prognosen sieht er nicht, dass die Verlage im digitalen Zeitalter verschwinden. Seiner Ansicht nach sind diese mit ihrer Expertise in der Wissensvermittlung gut gerüstet. Selbst wenn sich die äußere Form der Veröffentlichung änderte, das Wissen müsse immer noch in professionellen Formen den Empfänger erreichen.

Neue Kooperationen sind der Schlüssel zum Erfolg. Marar nennt Beispiele für Projekte aus den Sozialwissenschaften, in denen Datenanalysten, Wissenschaftler, Informatiker und Linguisten zusammenarbeiten. In ihren Analyse-Projekten nutzen sie Daten nicht nur aus Veröffentlichungen, sondern aus allen öffentlich zugänglichen Quellen (z.B. Social Media). Was früher fünfzehn Jahre Forschungsarbeit erfordert hätte, sei heute in zwölf Monaten erreichbar. Er ist davon überzeugt, dass Big-Data-Projekte nur gelingen, wenn vier Aspekte zusammenkommen: Expertise, Zusammenarbeit, Softwaretools und die großen Datenmengen. Marar schwört auf den ganzheitlichen und interdisziplinären „holistic way of working“.

________________________________________________________________________

Das Plattform-Dilemma.

________________________________________________________________________

Nach dem Information Overload haben wir es jetzt wohl mit einem „Platform Overload“ zu tun. Welche Tools sind nützlich, um wertvolle Erkenntnisse aus den Datenmassen zu gewinnen? Für welche Plattformen soll man sich entscheiden? Wie offen sind die Schnittstellen? Heralambos Marmanis vom Copyright Clearence Center plädiert dafür, sich auf Lösungen zu fokussieren, die für konkrete Fragestellungen nützlich sind und sich nicht davon verführen lassen, was alles möglich wäre. Viele Lösungen sehen gut aus, aber die eigentlichen Ziele, die mit den Erkenntnissen erreicht werden können, erscheinen bei der Beschäftigung mit den Analysemöglichkeiten häufig nicht klar (wenigstens nicht auf den ersten Blick). Das scheint eine neue und ständige Herausforderung zu werden, den Überblick zu behalten, welche Anwendung welche Lösungen parat hält und wie man die eigenen Ziele mit den „richtigen“ Lösungen zusammenführt.

Spannend war der Vortrag von David Smith (Institution of Engineering and Technology, IET). Er erläutert anhand eines Beispiels, wie die BBC das Fernsehen der Zukunft sieht. Objektorientierte Services versetzen den Konsumenten in die Lage, die Umgebung einer Information und seine eigenen Aktivitäten neu zu bestimmen. Beim Fernsehen der Zukunft wählen Zuschauer den Platz im Stadion, von dem aus sie ein Fußballspiel beiwohnen wollen. Akustik, Licht und Kameraperspektive werden entsprechend angepasst. Mit einer VR-Brille wähnen sich die Zuschauer live im Stadion.

Ist dieses Modell auf die Welt der Wissenschaft übertragbar? Sicherlich nicht eins zu eins. Es geht vielmehr um die Möglichkeit, ein Thema aus verschiedenen Blickwinkeln zu betrachten und nicht nur das Ergebnis in einem publizierten Artikel final festzuhalten. Diese Optionen bekomme man jetzt mit Big Data, prognostiziert Smith. Der Kontext einer Information wird ja bereits auf Plattformen wir Figshare oder Overleaf mit dem gesamten wissenschaftlichen Output gesammelt.  Technische Lösungen sollten in der größtmöglichen Offenheit für einen Zusammenschluss von mehreren Datenbasen liegen und nicht in der ständigen Neuerfindung von Einzellösungen, rät Smith

Schluss folgt


Aus dem Archiv

Push-Dienst Archiv 2017 - Alle Beiträge

Direkt per Klick - alle Open Password Ausgaben in einer Gesamtübersicht.

Mehr...

---