<?xml version="1.0" encoding="UTF-8" standalone="yes"?><add><doc><field name="objectKind">mycoreobject</field><field name="id">rosdok_thesis_0000000025</field><field name="returnId">rosdok_thesis_0000000025</field><field name="objectProject">rosdok</field><field name="objectType">thesis</field><field name="link">rosdok_derivate_0000057396</field><field name="modified">2023-08-08T09:26:43.565Z</field><field name="created">2018-10-18T06:04:46.588Z</field><field name="modifiedby">administrator</field><field name="createdby">editorD</field><field name="state">published</field><field name="derCount">1</field><field name="derivates">rosdok_derivate_0000057396</field><field name="worldReadable">true</field><field name="worldReadableComplete">true</field><field name="category">derivate_types:fulltext</field><field name="allMeta">Volltext</field><field name="allMeta">fulltext</field><field name="allMeta">wf_edit_epub wf_register_epub</field><field name="category">state:published</field><field name="category.top">state:published</field><field name="allMeta">veröffentlicht</field><field name="allMeta">published</field><field name="allMeta">rosdok/id00002317</field><field name="allMeta">1033561762</field><field name="allMeta">Oau</field><field name="allMeta">2018-10-18</field><field name="allMeta">2023-08-05T18:55:50Z</field><field name="allMeta">rda</field><field name="allMeta">Converted from PICA to MODS using Pica2Mods XSLT Transformer 2.7 [SCM: "0c0e7a3c226a4a0cbcbec39b493c3c5257339ab8" "v2.7" "2023-08-04T00:00:00+0200"] with mode 'DEFAULT'.</field><field name="allMeta">Masterarbeit</field><field name="allMeta">Hochschulschrift</field><field name="allMeta">Visuelle Aufmerksamkeitsmodelle basierend auf neuronalen Netzwerken</field><field name="allMeta">Neural nezwork based visual attention models</field><field name="allMeta">Ziel dieser Arbeit war es, eine Architektur aufzubauen, welche sowohl die Lokalisierung als auch die Erkennung von Objekten in Bildern ermöglicht und dabei effizient skaliert. Inspiriert durch die Art und Weise der menschlichen Wahrnehmung, wird ein Modell konzipiert, welches mittels Aufmerksamkeit selektiv Bildregionen fokussiert und diese sequentiell verarbeitet. Konzepte aus dem überwachten und bestärkenden Lernen werden kombiniert, um ein globales Training des Modells zu ermöglichen. Die Arbeit endet mit Experimenten zum Klassifizieren von Ziffern und Lokalisieren von KFZ-Kennzeichen.</field><field name="allMeta">The goal of this thesis was to create an architecture, which is able to both localize and recognize objects in a scene, while simultaneously scaling efficiently. Inspired by the way of the human perception, a model is designed to selectively focus its attention on different regions in an image and process them sequentially. By combining concepts from supervised and reinforcement learning, a method is created, which enables the architecture to be trained globally. The thesis ends with experiments on digit classification and license plate localisation.</field><field name="allMeta">Johannes</field><field name="allMeta">Michael</field><field name="allMeta">VerfasserIn</field><field name="allMeta">aut</field><field name="allMeta">Tobias</field><field name="allMeta">Grüning</field><field name="allMeta">AkademischeR BetreuerIn</field><field name="allMeta">dgs</field><field name="allMeta">Roger</field><field name="allMeta">Labahn</field><field name="allMeta">1959 -</field><field name="allMeta">AkademischeR BetreuerIn</field><field name="allMeta">dgs</field><field name="allMeta">170999645</field><field name="allMeta">0000-0003-1901-9644</field><field name="allMeta">38329-6</field><field name="allMeta">Universität Rostock</field><field name="allMeta">1419 -</field><field name="allMeta">Grad-verleihende Institution</field><field name="allMeta">dgg</field><field name="allMeta">2147083-2</field><field name="allMeta">Universität Rostock</field><field name="allMeta">Mathematisch-Naturwissenschaftliche Fakultät</field><field name="allMeta">Grad-verleihende Institution</field><field name="allMeta">dgg</field><field name="allMeta">http://purl.uni-rostock.de/rosdok/id00002317</field><field name="allMeta">urn:nbn:de:gbv:28-thesis2018-0004-9</field><field name="allMeta">10.18453/rosdok_id00002317</field><field name="allMeta">510 Mathematik</field><field name="allMeta">Mathematisch-Naturwissenschaftliche Fakultät</field><field name="allMeta">alle Rechte vorbehalten</field><field name="allMeta">Nutzungsrechte erteilt</field><field name="allMeta">frei zugänglich (Open Access)</field><field name="allMeta">Lizenz Metadaten: CC0</field><field name="allMeta">de</field><field name="allMeta">Online-Ressource</field><field name="allMeta">2016</field><field name="allMeta">Universität Rostock</field><field name="allMeta">Rostock</field><field name="allMeta">monographic</field><field name="allMeta">2018</field><field name="allMeta">2016</field><field name="allMeta">2018</field><field name="allMeta">Universitätsbibliothek Rostock</field><field name="allMeta">Rostock</field><field name="allMeta">2018</field><field name="allMeta">Universitätsbibliothek Rostock</field><field name="allMeta">http://purl.uni-rostock.de/rosdok/id00002317</field><field name="allMeta">Johannes Michael</field><field name="category">doctype:epub</field><field name="category.top">doctype:epub</field><field name="allMeta">Dokumenttyp</field><field name="allMeta">Document type</field><field name="category">doctype:epub.masterthesis</field><field name="category.top">doctype:epub.masterthesis</field><field name="allMeta">Masterarbeit</field><field name="allMeta">master thesis</field><field name="allMeta">diniPublType:masterThesis diniPublType2022:MasterThesis XMetaDissPlusThesisLevel:master</field><field name="allMeta">info:eu-repo/semantics/masterThesis</field><field name="allMeta">document</field><field name="category">natureOfContent:ppn_105825778</field><field name="category.top">natureOfContent:ppn_105825778</field><field name="allMeta">Hochschulschrift</field><field name="category">diniPublType2022:MasterThesis</field><field name="category.top">diniPublType2022:MasterThesis</field><field name="allMeta">Abschlussarbeit (Master)</field><field name="allMeta">master thesis</field><field name="allMeta">DRIVER</field><field name="category">XMetaDissPlusThesisLevel:master</field><field name="category.top">XMetaDissPlusThesisLevel:master</field><field name="allMeta">Masterarbeit</field><field name="allMeta">master thesis</field><field name="category">SDNB:510</field><field name="category.top">SDNB:510</field><field name="allMeta">510 Mathematik</field><field name="allMeta">510 Mathematics</field><field name="category">institution:unirostock</field><field name="category.top">institution:unirostock</field><field name="allMeta">Universität Rostock</field><field name="allMeta">University of Rostock</field><field name="allMeta">Universität Rostock</field><field name="allMeta">Universität Rostock</field><field name="allMeta">Uni.Rostock</field><field name="allMeta">http://d-nb.info/gnd/38329-6</field><field name="category">institution:unirostock.mnf</field><field name="category.top">institution:unirostock.mnf</field><field name="allMeta">Mathematisch-Naturwissenschaftliche Fakultät</field><field name="allMeta">Faculty of Mathematics and Natural Sciences</field><field name="allMeta">Universität Rostock. Mathematisch-Naturwissenschaftliche Fakultät</field><field name="allMeta">Mathematisch-Natur-&lt;br /&gt;wissenschaftliche Fakultät</field><field name="allMeta">Uni.Rostock.Fakultaet.MNF</field><field name="allMeta">http://d-nb.info/gnd/2147083-2</field><field name="category">licenseinfo:work</field><field name="category.top">licenseinfo:work</field><field name="allMeta">Werk</field><field name="allMeta">work</field><field name="category">licenseinfo:work.rightsreserved</field><field name="category.top">licenseinfo:work.rightsreserved</field><field name="allMeta">alle Rechte vorbehalten</field><field name="allMeta">all rights reserved</field><field name="allMeta">/creativecommons/r/reserved/0.9/88x31.png</field><field name="allMeta">[DE-28]Urheberrechtsschutz 1.0$gRights Statements$uhttp://rightsstatements.org/vocab/InC/1.0/</field><field name="allMeta">http://rightsstatements.org/vocab/InC/1.0/</field><field name="allMeta">http://rightsstatements.org/vocab/InC/1.0/</field><field name="category">licenseinfo:deposit</field><field name="category.top">licenseinfo:deposit</field><field name="allMeta">Veröffentlichungsgenehmigung</field><field name="allMeta">permission to store</field><field name="category">licenseinfo:deposit.rightsgranted</field><field name="category.top">licenseinfo:deposit.rightsgranted</field><field name="allMeta">Nutzungsrechte erteilt</field><field name="allMeta">rights granted</field><field name="category">accesscondition:openaccess</field><field name="category.top">accesscondition:openaccess</field><field name="allMeta">frei zugänglich (Open Access)</field><field name="allMeta">open access</field><field name="allMeta">http://purl.org/coar/access_right/c_abf2</field><field name="allMeta">OA</field><field name="allMeta">free</field><field name="allMeta">info:eu-repo/semantics/openAccess</field><field name="allMeta">[DE-28]Open Access$gControlled Vocabulary for Access Rights$uhttp://purl.org/coar/access_right/c_abf2</field><field name="category">licenseinfo:metadata</field><field name="category.top">licenseinfo:metadata</field><field name="allMeta">Lizenzen für Metadaten</field><field name="category">licenseinfo:metadata.cc0</field><field name="category.top">licenseinfo:metadata.cc0</field><field name="allMeta">Lizenz Metadaten: CC0</field><field name="allMeta">license metadata: CC0</field><field name="allMeta">/creativecommons/p/zero/1.0/88x31.png</field><field name="allMeta">https://creativecommons.org/publicdomain/zero/1.0/</field><field name="category">rfc5646:de</field><field name="category.top">rfc5646:de</field><field name="allMeta">Deutsch</field><field name="allMeta">German</field><field name="allMeta">ger</field><field name="allMeta">deu</field><field name="mods.title">Visuelle Aufmerksamkeitsmodelle basierend auf neuronalen Netzwerken</field><field name="mods.title">Neural nezwork based visual attention models</field><field name="mods.title.main">Visuelle Aufmerksamkeitsmodelle basierend auf neuronalen Netzwerken</field><field name="mods.title.subtitle"></field><field name="mods.nameIdentifier">gnd:170999645</field><field name="mods.nameIdentifier">orcid:0000-0003-1901-9644</field><field name="mods.nameIdentifier">gnd:38329-6</field><field name="mods.nameIdentifier">gnd:2147083-2</field><field name="mods.nameIdentifier.top">gnd:170999645</field><field name="mods.nameIdentifier.top">orcid:0000-0003-1901-9644</field><field name="mods.nameIdentifier.top">gnd:38329-6</field><field name="mods.nameIdentifier.top">gnd:2147083-2</field><doc><field name="id">rosdok_thesis_0000000025-d108307e56</field><field name="mods.name">Johannes Michael</field><field name="mods.name.top">Johannes Michael</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e66</field><field name="mods.name">Tobias Grüning</field><field name="mods.name.top">Tobias Grüning</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e77</field><field name="mods.nameIdentifier">gnd:170999645</field><field name="mods.nameIdentifier">orcid:0000-0003-1901-9644</field><field name="mods.name">Roger Labahn</field><field name="mods.name.top">Roger Labahn</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e93</field><field name="mods.nameIdentifier">gnd:38329-6</field><field name="mods.name">Universität Rostock</field><field name="mods.name.top">Universität Rostock</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e104</field><field name="mods.nameIdentifier">gnd:2147083-2</field><field name="mods.name">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field><field name="mods.name.top">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field></doc><field name="mods.name">Johannes Michael</field><field name="mods.name">Tobias Grüning</field><field name="mods.name">Roger Labahn</field><field name="mods.name">Universität Rostock</field><field name="mods.name">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field><field name="mods.name.top">Johannes Michael</field><field name="mods.name.top">Tobias Grüning</field><field name="mods.name.top">Roger Labahn</field><field name="mods.name.top">Universität Rostock</field><field name="mods.name.top">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field><field name="mods.author">Johannes Michael</field><field name="mods.place">Rostock</field><field name="mods.publisher">Universität Rostock</field><field name="mods.genre">epub.masterthesis</field><field name="mods.identifier">http://purl.uni-rostock.de/rosdok/id00002317</field><field name="mods.identifier">urn:nbn:de:gbv:28-thesis2018-0004-9</field><field name="mods.identifier">10.18453/rosdok_id00002317</field><field name="mods.abstract">Ziel dieser Arbeit war es, eine Architektur aufzubauen, welche sowohl die Lokalisierung als auch die Erkennung von Objekten in Bildern ermöglicht und dabei effizient skaliert. Inspiriert durch die Art und Weise der menschlichen Wahrnehmung, wird ein Modell konzipiert, welches mittels Aufmerksamkeit selektiv Bildregionen fokussiert und diese sequentiell verarbeitet. Konzepte aus dem überwachten und bestärkenden Lernen werden kombiniert, um ein globales Training des Modells zu ermöglichen. Die Arbeit endet mit Experimenten zum Klassifizieren von Ziffern und Lokalisieren von KFZ-Kennzeichen.</field><field name="mods.abstract">The goal of this thesis was to create an architecture, which is able to both localize and recognize objects in a scene, while simultaneously scaling efficiently. Inspired by the way of the human perception, a model is designed to selectively focus its attention on different regions in an image and process them sequentially. By combining concepts from supervised and reinforcement learning, a method is created, which enables the architecture to be trained globally. The thesis ends with experiments on digit classification and license plate localisation.</field><field name="mods.dateIssued">2016</field><field name="mods.yearIssued">2016</field><field name="mods.note.statement of responsibility">Johannes Michael</field><field name="mods.type">epub.masterthesis</field><field name="search_result_link_text">1
        Michael_Master_2018.pdf
        
        1985729
        63f20afdca41d263eca6f0eab00ef338
      
    
  
  
    
      
        rosdok/id000023171033561762Oau2018-10-182023-08-05T18:55:50ZrdaConverted from PICA to MODS using Pica2Mods XSLT Transformer 2.7 [SCM: "0c0e7a3c226a4a0cbcbec39b493c3c5257339ab8" "v2.7" "2023-08-04T00:00:00+0200"] with mode 'DEFAULT'.MasterarbeitHochschulschriftVisuelle Aufmerksamkeitsmodelle basierend auf neuronalen NetzwerkenNeural nezwork based visual attention modelsZiel dieser Arbeit war es, eine Architektur aufzubauen, welche sowohl die Lokalisierung als auch die Erkennung von Objekten in Bildern ermöglicht und dabei effizient skaliert. Inspiriert durch die Art und Weise der menschlichen Wahrnehmung, wird ein Modell konzipiert, welches mittels Aufmerksamkeit selektiv Bildregionen fokussiert und diese sequentiell verarbeitet. Konzepte aus dem überwachten und bestärkenden Lernen werden kombiniert, um ein globales Training des Modells zu ermöglichen. Die Arbeit endet mit Experimenten zum Klassifizieren von Ziffern und Lokalisieren von KFZ-Kennzeichen.The goal of this thesis was to create an architecture, which is able to both localize and recognize objects in a scene, while simultaneously scaling efficiently. Inspired by the way of the human perception, a model is designed to selectively focus its attention on different regions in an image and process them sequentially. By combining concepts from supervised and reinforcement learning, a method is created, which enables the architecture to be trained globally. The thesis ends with experiments on digit classification and license plate localisation.JohannesMichaelVerfasserInautTobiasGrüningAkademischeR BetreuerIndgsRogerLabahn1959 -AkademischeR BetreuerIndgs1709996450000-0003-1901-964438329-6Universität Rostock1419 -Grad-verleihende Institutiondgg2147083-2Universität RostockMathematisch-Naturwissenschaftliche FakultätGrad-verleihende Institutiondgghttp://purl.uni-rostock.de/rosdok/id00002317urn:nbn:de:gbv:28-thesis2018-0004-910.18453/rosdok_id00002317510 MathematikMathematisch-Naturwissenschaftliche Fakultätalle Rechte vorbehaltenNutzungsrechte erteiltfrei zugänglich (Open Access)Lizenz Metadaten: CC0deOnline-Ressource2016Universität RostockRostockmonographic201820162018Universitätsbibliothek RostockRostock2018Universitätsbibliothek Rostockhttp://purl.uni-rostock.de/rosdok/id00002317Johannes Michael
      
    
  
  
    
      2018-10-18T06:04:46.588Z
      2023-08-08T09:26:43.565Z
      2023-08-18T09:26:43.578Z
    
    
      {"identifier":"rosdok/id00002317","type":"local_id","additional":"","service":"MCRLocalID","created":"2018-10-18T06:04:51.358Z"}
      editorD
      {"identifier":"http://purl.uni-rostock.de/rosdok/id00002317","type":"purl","additional":"","service":"RosDokPURL","created":"2018-10-18T06:17:32.401Z","registered":"2018-10-18T06:17:32.401Z"}
      {"identifier":"10.18453/rosdok_id00002317","type":"doi","additional":"","service":"RosDokDOI","created":"2018-10-18T06:17:34.339Z","registered":"2018-10-18T06:17:34.339Z"}
      {"identifier":"urn:nbn:de:gbv:28-thesis2018-0004-9","type":"dnbUrn","additional":"","service":"RosDokURN","created":"2018-10-18T06:04:52.004Z","registered":"2018-10-19T02:15:11.670Z"}
      administrator</field><field name="derivateLabel">fulltext</field><field name="ir.pdffulltext_url">file/rosdok_thesis_0000000025/rosdok_derivate_0000057396/Michael_Master_2018.pdf</field><field name="mods.title">Visuelle Aufmerksamkeitsmodelle basierend auf neuronalen Netzwerken</field><field name="mods.title">Neural nezwork based visual attention models</field><field name="mods.title.main">Visuelle Aufmerksamkeitsmodelle basierend auf neuronalen Netzwerken</field><field name="mods.title.subtitle"></field><field name="mods.nameIdentifier">gnd:170999645</field><field name="mods.nameIdentifier">orcid:0000-0003-1901-9644</field><field name="mods.nameIdentifier">gnd:38329-6</field><field name="mods.nameIdentifier">gnd:2147083-2</field><field name="mods.nameIdentifier.top">gnd:170999645</field><field name="mods.nameIdentifier.top">orcid:0000-0003-1901-9644</field><field name="mods.nameIdentifier.top">gnd:38329-6</field><field name="mods.nameIdentifier.top">gnd:2147083-2</field><doc><field name="id">rosdok_thesis_0000000025-d108307e56</field><field name="mods.name">Johannes Michael</field><field name="mods.name.top">Johannes Michael</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e66</field><field name="mods.name">Tobias Grüning</field><field name="mods.name.top">Tobias Grüning</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e77</field><field name="mods.nameIdentifier">gnd:170999645</field><field name="mods.nameIdentifier">orcid:0000-0003-1901-9644</field><field name="mods.name">Roger Labahn</field><field name="mods.name.top">Roger Labahn</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e93</field><field name="mods.nameIdentifier">gnd:38329-6</field><field name="mods.name">Universität Rostock</field><field name="mods.name.top">Universität Rostock</field></doc><doc><field name="id">rosdok_thesis_0000000025-d108307e104</field><field name="mods.nameIdentifier">gnd:2147083-2</field><field name="mods.name">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field><field name="mods.name.top">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field></doc><field name="mods.name">Johannes Michael</field><field name="mods.name">Tobias Grüning</field><field name="mods.name">Roger Labahn</field><field name="mods.name">Universität Rostock</field><field name="mods.name">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field><field name="mods.name.top">Johannes Michael</field><field name="mods.name.top">Tobias Grüning</field><field name="mods.name.top">Roger Labahn</field><field name="mods.name.top">Universität Rostock</field><field name="mods.name.top">Universität Rostock Mathematisch-Naturwissenschaftliche Fakultät</field><field name="mods.author">Johannes Michael</field><field name="mods.place">Rostock</field><field name="mods.publisher">Universität Rostock</field><field name="mods.genre">epub.masterthesis</field><field name="mods.identifier">http://purl.uni-rostock.de/rosdok/id00002317</field><field name="mods.identifier">urn:nbn:de:gbv:28-thesis2018-0004-9</field><field name="mods.identifier">10.18453/rosdok_id00002317</field><field name="mods.abstract">Ziel dieser Arbeit war es, eine Architektur aufzubauen, welche sowohl die Lokalisierung als auch die Erkennung von Objekten in Bildern ermöglicht und dabei effizient skaliert. Inspiriert durch die Art und Weise der menschlichen Wahrnehmung, wird ein Modell konzipiert, welches mittels Aufmerksamkeit selektiv Bildregionen fokussiert und diese sequentiell verarbeitet. Konzepte aus dem überwachten und bestärkenden Lernen werden kombiniert, um ein globales Training des Modells zu ermöglichen. Die Arbeit endet mit Experimenten zum Klassifizieren von Ziffern und Lokalisieren von KFZ-Kennzeichen.</field><field name="mods.abstract">The goal of this thesis was to create an architecture, which is able to both localize and recognize objects in a scene, while simultaneously scaling efficiently. Inspired by the way of the human perception, a model is designed to selectively focus its attention on different regions in an image and process them sequentially. By combining concepts from supervised and reinforcement learning, a method is created, which enables the architecture to be trained globally. The thesis ends with experiments on digit classification and license plate localisation.</field><field name="mods.dateIssued">2016</field><field name="mods.yearIssued">2016</field><field name="mods.note.statement of responsibility">Johannes Michael</field><field name="ir.identifier">[xslt]Saxon</field><field name="recordIdentifier">rosdok/id00002317</field><field name="purl">https://purl.uni-rostock.de/rosdok/id00002317</field><field name="ppn">1033561762</field><field name="doi">10.18453/rosdok_id00002317</field><field name="urn">urn:nbn:de:gbv:28-thesis2018-0004-9</field><field name="ir.creator.result">Johannes Michael</field><field name="ir.creator.sort">Michael Johannes</field><field name="ir.title.result">Visuelle Aufmerksamkeitsmodelle basierend auf neuronalen Netzwerken</field><field name="ir.doctype.result">Masterarbeit</field><field name="ir.doctype_en.result">master thesis</field><field name="ir.originInfo.result">Universität Rostock, 2016</field><field name="ir.abstract300.result">Ziel dieser Arbeit war es, eine Architektur aufzubauen, welche sowohl die Lokalisierung als auch die Erkennung von Objekten in Bildern ermöglicht und dabei effizient skaliert. Inspiriert durch die Art und Weise der menschlichen Wahrnehmung, wird ein Modell konzipiert, welches mittels Aufmerksamkeit…</field><field name="ir.creator_all">Johannes Michael</field><field name="ir.title_all">Visuelle Aufmerksamkeitsmodelle basierend auf neuronalen Netzwerken</field><field name="ir.title_all">Neural nezwork based visual attention models</field><field name="ir.location_all">Universitätsbibliothek Rostock</field><field name="ir.location_all">http://purl.uni-rostock.de/rosdok/id00002317</field><field name="ir.creator_all">Johannes</field><field name="ir.creator_all">Michael</field><field name="ir.creator_all"></field><field name="ir.creator_all">VerfasserIn</field><field name="ir.creator_all">aut</field><field name="ir.creator_all">Tobias</field><field name="ir.creator_all">Grüning</field><field name="ir.creator_all"></field><field name="ir.creator_all">AkademischeR BetreuerIn</field><field name="ir.creator_all">dgs</field><field name="ir.creator_all">Roger</field><field name="ir.creator_all">Labahn</field><field name="ir.creator_all">1959 -</field><field name="ir.creator_all"></field><field name="ir.creator_all">AkademischeR BetreuerIn</field><field name="ir.creator_all">dgs</field><field name="ir.creator_all">170999645</field><field name="ir.creator_all">0000-0003-1901-9644</field><field name="ir.creator_all">38329-6</field><field name="ir.creator_all">Universität Rostock</field><field name="ir.creator_all">1419 -</field><field name="ir.creator_all"></field><field name="ir.creator_all">Grad-verleihende Institution</field><field name="ir.creator_all">dgg</field><field name="ir.creator_all">2147083-2</field><field name="ir.creator_all">Universität Rostock</field><field name="ir.creator_all">Mathematisch-Naturwissenschaftliche Fakultät</field><field name="ir.creator_all"></field><field name="ir.creator_all">Grad-verleihende Institution</field><field name="ir.creator_all">dgg</field><field name="ir.identifier">[purl]http://purl.uni-rostock.de/rosdok/id00002317</field><field name="ir.identifier">[urn]urn:nbn:de:gbv:28-thesis2018-0004-9</field><field name="ir.identifier">[doi]10.18453/rosdok_id00002317</field><field name="ir.oai.setspec.open_access">open_access</field><field name="ir.pubyear_start">2016</field><field name="ir.pubyear_end">2016</field><field name="ir.epoch_class.facet">epoch:21th_century</field><field name="ir.language_class.facet">rfc5646:de</field><field name="ir.doctype_class.facet">doctype:epub.masterthesis</field><field name="ir.accesscondition_class.facet">accesscondition:openaccess</field><field name="ir.sdnb_class.facet">SDNB:510</field><field name="ir.institution_class.facet">institution:unirostock.mnf</field><field name="ir.state_class.facet">state:published</field></doc></add>