Logo des Repositoriums
  • English
  • Deutsch
Anmelden
Keine TU-ID? Klicken Sie hier für mehr Informationen.
  1. Startseite
  2. Publikationen
  3. Publikationen der Technischen Universität Darmstadt
  4. Zweitveröffentlichungen
  5. Scalable Structure Learning of Continuous-Time Bayesian Networks from Incomplete Data
 
  • Details
2019
Zweitveröffentlichung
Konferenzveröffentlichung
Verlagsversion

Scalable Structure Learning of Continuous-Time Bayesian Networks from Incomplete Data

File(s)
Download

NeurIPS-2019-scalable-structure-learning-of-continuous-time-bayesian-networks-from-incomplete-data-Paper.pdf
CC BY 4.0 International
Format: Adobe PDF
Size: 1.24 MB
Download

gradient_ctbn_neurips_supplementary.pdf
CC BY 4.0 International
Format: Adobe PDF
Size: 1.01 MB
TUDa URI
tuda/12956
URN
urn:nbn:de:tuda-tuprints-289952
DOI
10.26083/tuprints-00028995
Autor:innen
Linzner, Dominik ORCID 0000-0002-2615-4062
Schmidt, Michael
Koeppl, Heinz ORCID 0000-0002-8305-9379
Kurzbeschreibung (Abstract)

Continuous-time Bayesian Networks (CTBNs) represent a compact yet powerful framework for understanding multivariate time-series data. Given complete data, parameters and structure can be estimated efficiently in closed-form. However, if data is incomplete, the latent states of the CTBN have to be estimated by laboriously simulating the intractable dynamics of the assumed CTBN. This is a problem, especially for structure learning tasks, where this has to be done for each element of a super-exponentially growing set of possible structures. In order to circumvent this notorious bottleneck, we develop a novel gradient-based approach to structure learning. Instead of sampling and scoring all possible structures individually, we assume the generator of the CTBN to be composed as a mixture of generators stemming from different structures. In this framework, structure learning can be performed via a gradient-based optimization of mixture weights. We combine this approach with a new variational method that allows for a closed-form calculation of this mixture marginal likelihood. We show the scalability of our method by learning structures of previously inaccessible sizes from synthetic and real-world data.

Sprache
Englisch
Herausgeber:innen
Wallach, H.
Larochelle, H.
Beygelzimer, A.
d'Alché-Buc, F.
Fox, E.
Garnett, R.
Fachbereich/-gebiet
18 Fachbereich Elektrotechnik und Informationstechnik > Institut für Nachrichtentechnik > Bioinspirierte Kommunikationssysteme
18 Fachbereich Elektrotechnik und Informationstechnik > Self-Organizing Systems Lab
DDC
500 Naturwissenschaften und Mathematik > 570 Biowissenschaften, Biologie
600 Technik, Medizin, angewandte Wissenschaften > 621.3 Elektrotechnik, Elektronik
Institution
Universitäts- und Landesbibliothek Darmstadt
Ort
Darmstadt
Veranstaltungstitel
33rd Conference on Neural Information Processing Systems (NeurIPS 2019)
Veranstaltungsort
Vancouver, Canada
Startdatum der Veranstaltung
08.12.2019
Enddatum der Veranstaltung
14.12.2019
Buchtitel
Advances in Neural Information Processing Systems 32 (NeurIPS 2019)
ISBN
9781713807933
Verlag
NeurIPS
Ort der Erstveröffentlichung
San Diego, CA
Publikationsjahr der Erstveröffentlichung
2019
PPN
525358560
Zusätzliche Infomationen
Part of Advances in Neural Information Processing Systems 32 (NeurIPS 2019)

  • TUprints Leitlinien
  • Cookie-Einstellungen
  • Impressum
  • Datenschutzbestimmungen
  • Webseitenanalyse
Diese Webseite wird von der Universitäts- und Landesbibliothek Darmstadt (ULB) betrieben.