<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Alt om ingenting og litt i mellom &#187; Infrastruktur</title>
	<atom:link href="http://hovenko.no/blog/category/teknologi/infrastruktur/feed/" rel="self" type="application/rss+xml" />
	<link>https://hovenko.no/blog</link>
	<description>En blogg av Knut-Olav</description>
	<lastBuildDate>Mon, 10 Mar 2025 19:25:02 +0000</lastBuildDate>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Lite entropi?</title>
		<link>https://hovenko.no/blog/2015/01/05/lite-entropi/</link>
		<comments>https://hovenko.no/blog/2015/01/05/lite-entropi/#comments</comments>
		<pubDate>Mon, 05 Jan 2015 20:59:11 +0000</pubDate>
		<dc:creator>Knut-Olav</dc:creator>
				<category><![CDATA[Infrastruktur]]></category>
		<category><![CDATA[Linux]]></category>

		<guid isPermaLink="false">http://hovenko.no/blog/?p=869</guid>
		<description><![CDATA[$ sudo aptitude install haveged $ cat /proc/sys/kernel/random/entropy_avail]]></description>
			<content:encoded><![CDATA[<p><code>
<pre>$ sudo aptitude install haveged</pre>
<p></code></p>
<p><code>
<pre>$ cat /proc/sys/kernel/random/entropy_avail</pre>
<p></code></p>
]]></content:encoded>
			<wfw:commentRss>https://hovenko.no/blog/2015/01/05/lite-entropi/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Millioner av filer i samme katalog på filsystemet i Linux</title>
		<link>https://hovenko.no/blog/2014/12/02/millioner-av-filer-i-samme-katalog-pa-filsystemet-i-linux/</link>
		<comments>https://hovenko.no/blog/2014/12/02/millioner-av-filer-i-samme-katalog-pa-filsystemet-i-linux/#comments</comments>
		<pubDate>Tue, 02 Dec 2014 17:15:16 +0000</pubDate>
		<dc:creator>Knut-Olav</dc:creator>
				<category><![CDATA[Infrastruktur]]></category>
		<category><![CDATA[Linux]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[IT]]></category>

		<guid isPermaLink="false">http://hovenko.no/blog/?p=854</guid>
		<description><![CDATA[På jobb her om dagen kjørte vi i to-hundre (nye filer i sekundet) &#8220;rett i en veggen&#8221;, da antallet filer på filsystemet ble for mange og alt gikk i stå. Hovedsaklig møtte vi på to problemer: ingen flere ledige inodes, og lang venting på å liste ut alle filene, med millioner av filer lagret i [...]]]></description>
			<content:encoded><![CDATA[<p>På jobb her om dagen kjørte vi i to-hundre (nye filer i sekundet) &#8220;rett i en veggen&#8221;, da antallet filer på filsystemet ble for mange og alt gikk i stå.</p>
<p>Hovedsaklig møtte vi på to problemer: ingen flere ledige inodes, og lang venting på å liste ut alle filene, med millioner av filer lagret i én og samme katalog.</p>
<p>Filene ble lagret på filsystemet <a href="https://ext4.wiki.kernel.org/">EXT4</a> i Linux, Ubuntu 14.04.1 LTS.</p>
<p>EXT4 har en fastsatt grense for antall filer som filsystemet kan håndtere, og denne settes under oppretting av filsystemet, så denne kunne vi ikke endre.<br />
Videre klarer ikke EXT4 å håndtere stort mer enn ca 100k filer i én og samme katalog uten at alt går i sneglefart.</p>
<p>Vi måtte finne et nytt filsystem, noe som ikke hadde noen øvre grense for antall filer, med unntak av diskplass så klart.</p>
<h2>Andre filsystemer til unnsetning</h2>
<p>Vi måtte gjøre noen tester for å finne ut hvilket filsystem vi kan bruke istedenfor EXT4.<br />
Kandidatene vi kom fram til var <a href="https://btrfs.wiki.kernel.org/">BTRFS</a>, <a href="http://en.wikipedia.org/wiki/XFS">XFS</a> og <a href="http://en.wikipedia.org/wiki/ZFS">ZFS</a>.</p>
<p><small>I tillegg vurderte vi <a href="http://en.wikipedia.org/wiki/OneFS_distributed_file_system">OneFS</a>, et produkt fra Isilon som vi allerede har kjørende i produksjon, et nettverkslagringssystem som er spesialisert til å håndtere veldig store datamengder, men dette produktet er heller ikke bra til å håndtere veldig mange filer i én katalog.<br />
Vi kan rett og slett ikke bruke den på grunn av risiko for å krasje hele filsystemet og ta med oss alle andre systemer i produksjon som bruker dette.<br />
</small></p>
<p>Testingen jeg gjorde er relativt enkel:</p>
<ol>
<li>Opprettet tomme filer på 20 GB, loopback-montert og formattert med filsystemet som skulle testes</li>
<li>Kopierte 1.6M (<strong>1.644.553</strong>) filer på til sammen 19 GB, alle i én katalog, til hver av filsystemene</li>
<li>Tømte Linux OS-cache før testing av hvert filsystem</li>
<li>Tok tiden for detailjert sortert utlisting (kald test)</li>
<li>Tok tiden for detailjert sortert utlisting enda en gang (varm test)</li>
<li>Tok tiden for usortert utlisting (varm test)</li>
</ol>
<p><small>I tillegg tok jeg noen notater om komprimeringsgrad for de filsystemene som støttet komprimering, og hvor mye OS-cache og minne som ble brukt etter gjennomført testing.<br />
Maskinene har noen bakgrunnsprosesser som vil kunne allokerer noe minne mens testene kjøres, men jeg anses aktiviteten på disse som lite i forhold til ressursbeslaget disse testene vil gjøre.<br />
</small></p>
<p>Hastighet på lesing eller skriving av innholdet i filene er ikke det viktigste for oss.<br />
Det er små filer, fra 50 KB til 500 KB, så det er viktigere at vi kan lese flere filer raskt enn å lese én stor fil raskt.</p>
<p>Vi trenger et filsystem som lar oss jobbe med filene, skrive nye filer, flytte filer og kopiere filer når behovene melder seg, istedenfor å krype stille sammen for å dø &#8211; altså er uthenting av metadata om filer og utlisting av filene viktige kriterier.</p>
<p>For å tømme OS-cache på Linux kjørte jeg følgende kommando:</p>
<pre><code>
echo 3 | sudo tee /proc/sys/vm/drop_caches
</code></pre>
<p>For utføring av testen &#8220;detailjert sortert utlisting&#8221; kjørte jeg følgende kommando:</p>
<pre><code>
time ls -lht KATALOG | wc -l
</code></pre>
<p>For utføring av testen &#8220;usortert utlisting&#8221; kjørte jeg følgende kommando:</p>
<pre><code>
time ls -1 -U KATALOG | wc -l
</code></pre>
<p>Disse kommandoene tar tiden for å liste ut filer.<br />
I steden for å bruke tid på å printe ut all teksten til konsollet så gjorde jeg en telling av linjer, som også ble en verifikasjon på at jeg hadde kopiert over alle filene til alle filsystemene som ble testet.</p>
<h3>Testoppsett</h3>
<p>Filene lå opprinnelig på Server1 på et EXT4-filsystem.<br />
Disse ble kopiert over til Server2 hvor testene av de andre filsystemene ble gjort.<br />
Server2 hadde omtrent ingen annen aktivitet mens testene pågikk, så målingene skal være nokså nøyaktige.<br />
For å måle opp mot problemet vårt ble også testene gjennomført på Server1 mot EXT4.<br />
I tillegg gjennomførte jeg en test på Server1 over NFS mot XFS-filområdet til Server2.</p>
<p>Filsystemene ble i hovedsak opprettet med standard-opsjoner på Ubuntu 14.04.1 LTS.<br />
Komprimering ble aktivert i BTRFS og ZFS.</p>
<h2>Resultater</h2>
<p>På Server1 gjennomførte jeg en tømming av OS-cache, men målte ikke minneallokeringsbruk, da det er andre tjenster som kjører på serveren, og det kunne gitt villedende resultater.</p>
<p>NFS-testen fra Server1 mot Server2 sitt XFS-testoppsett mangler noen måletall, tall jeg anså som uviktige å måle på grunn av nettverksseparasjonen.<br />
Den kalde testen av detaljert utlisting av filer ble ikke gjennomført over NFS.</p>
<p>Skriving av filer til ZFS ble merkbart tregere for hver fil som ble skrevet &#8211; i starten var overføringshastigheten over 6.5 MB/s, men slutta på 3.2 MB/s.<br />
Usikkert om det skyldes komprimering, diskstørrelse eller andre årsaker.</p>
<table cellspacing="0" border="0">
<colgroup width="220"></colgroup>
<colgroup span="5" width="85"></colgroup>
<tr>
<td height="17" align="left"></td>
<td align="center" bgcolor="#E6E6FF"><b>Server1</b></td>
<td align="center"><b>Server2</b></td>
<td align="center"><b>Server2</b></td>
<td align="center"><b>Server2</b></td>
<td align="center"><b>Server1</b></td>
</tr>
<tr>
<td height="47" align="left"></td>
<td align="center" bgcolor="#E6E6FF"><b>EXT-4</b></td>
<td align="center"><b>BTRFS</b></td>
<td align="center"><b>XFS</b></td>
<td align="center"><b>ZFS</b></td>
<td align="center"><b>NFS over Server2 XFS</b></td>
</tr>
<tr>
<td height="17" align="left"><b>Block-size (GB)</b></td>
<td align="center" bgcolor="#E6E6FF" sdval="83" sdnum="1044;">83</td>
<td align="center" sdval="10" sdnum="1044;">10</td>
<td align="center" sdval="25" sdnum="1044;">25</td>
<td align="center" sdval="10" sdnum="1044;">10</td>
<td align="center"></td>
</tr>
<tr>
<td height="17" align="left"><b>Diskbruk (GB)</b></td>
<td align="center" bgcolor="#E6E6FF" sdval="19" sdnum="1044;0;0,0">19,0</td>
<td align="center" sdval="8" sdnum="1044;0;0,0">8,0</td>
<td align="center" sdval="19" sdnum="1044;0;0,0">19,0</td>
<td align="center" bgcolor="#FFFF00" sdval="6,5" sdnum="1044;0;0,0">6,5</td>
<td align="center"></td>
</tr>
<tr>
<td height="17" align="left"><b>KB / inode</b></td>
<td align="center" bgcolor="#E6E6FF" sdval="16" sdnum="1044;0;0,0">16,0</td>
<td align="center" bgcolor="#FFFF00" sdval="1" sdnum="1044;0;0,0">1,0</td>
<td align="center" bgcolor="#FFFF00" sdval="1" sdnum="1044;0;0,0">1,0</td>
<td align="center" bgcolor="#FFFF00" sdval="0,5" sdnum="1044;0;0,0">0,5</td>
<td align="center"></td>
</tr>
<tr>
<td height="17" align="left"><b>detailjert sortert utlisting (kald)</b></td>
<td align="center" bgcolor="#E6E6FF" sdval="0,00233796296296296" sdnum="1044;0;MM:SS">03:22</td>
<td align="center" sdval="0,0025" sdnum="1044;0;MM:SS">03:36</td>
<td align="center" bgcolor="#FFFF00" sdval="0,00130787037037037" sdnum="1044;0;MM:SS">01:53</td>
<td align="center" sdval="0,00578703703703704" sdnum="1044;0;MM:SS">08:20</td>
<td align="center">???</td>
</tr>
<tr>
<td height="17" align="left"><b>detailjert sortert utlisting (varm)</b></td>
<td align="center" bgcolor="#E6E6FF" sdval="0,000509259259259259" sdnum="1044;0;MM:SS">00:44</td>
<td align="center" sdval="0,000219907407407407" sdnum="1044;0;MM:SS">00:19</td>
<td align="center" bgcolor="#FFFF00" sdval="0,000185185185185185" sdnum="1044;0;MM:SS">00:16</td>
<td align="center" sdval="0,000381944444444444" sdnum="1044;0;MM:SS">00:33</td>
<td align="center" sdval="0,00532407407407407" sdnum="1044;0;MM:SS">07:40</td>
</tr>
<tr>
<td height="17" align="left"><b>usortert utlisting (varm)</b></td>
<td align="center" bgcolor="#E6E6FF" sdval="0,0000231481481481481" sdnum="1044;0;MM:SS">00:02</td>
<td align="center" sdval="0,0000231481481481481" sdnum="1044;0;MM:SS">00:02</td>
<td align="center" bgcolor="#FFFF00" sdval="0,0000115740740740741" sdnum="1044;0;MM:SS">00:01</td>
<td align="center" sdval="0,000173611111111111" sdnum="1044;0;MM:SS">00:15</td>
<td align="center" sdval="0,000173611111111111" sdnum="1044;0;MM:SS">00:15</td>
</tr>
<tr>
<td height="17" align="left"><b>Allokert RAM (GB)</b></td>
<td align="center" bgcolor="#E6E6FF" sdnum="1044;0;MM:SS">???</td>
<td align="center" sdval="5,9" sdnum="1044;">5,9</td>
<td align="center" sdval="3,45" sdnum="1044;">3,45</td>
<td align="center" bgcolor="#FFFF00" sdval="3,3" sdnum="1044;">3,3</td>
<td align="center"></td>
</tr>
<tr>
<td height="17" align="left"><b>OS-cache (GB)</b></td>
<td align="center" bgcolor="#E6E6FF" sdval="0,1" sdnum="1044;">0,1</td>
<td align="center" sdval="3,7" sdnum="1044;">3,7</td>
<td align="center" bgcolor="#FFFF00" sdval="0,8" sdnum="1044;">0,8</td>
<td align="center" sdval="1,4" sdnum="1044;">1,4</td>
<td align="center"></td>
</tr>
<tr>
<td height="17" align="left"></td>
<td align="left"></td>
<td align="left"></td>
<td align="left"></td>
<td align="left"></td>
<td align="left"></td>
</tr>
</table>
<p><small>Tid ble målt i minutter og sekunder.<br />
BTRFS, XFS og ZFS allokerer inodes dynamisk.<br />
</small></p>
<p>EXT4 var eneste som hadde et maksimalt antall inodes.<br />
BTRFS rapporterte ikke om inodes i &#8220;df -i&#8221;, verken ledige eller brukte.<br />
Både XFS og ZFS var fleksible i ledige inodes som ble rapportert og endret seg i takt med ledig diskplass.</p>
<p>Alle filsystemene gjennomførte testene innen akseptabel hastighet når systemet var varm.<br />
Allikevel var BTRFS og XFS de raskeste her med svar på under 20 sekunder, mens ZFS brukte 33 sekunder og EXT4 brukte 44 sekunder.</p>
<p>XFS var klart raskest når systemet var kald med svar på under 2 minutter.<br />
EXT4 og BTRFS var nokså like med omkring 3,5 minutter når systemet var kald.<br />
ZFS brukte uakseptabel lang tid (over 8 minutter) når systemet var kald.</p>
<p>EXT4, BTRFS og XFS leverte et akseptabelt raskt svar på usortert utlisting av filene, på maksimalt 2 sekunder.<br />
XFS var raskest, på 1 sekund.<br />
ZFS brukte uakseptable 15 sekunder.</p>
<p>Alle filsystemene unntatt EXT4 allokerte mye minne og cache for å utføre testene.<br />
Det er usikkert om loopback-monteringen på Server2 kan ha hatt innvirkning.<br />
EXT4 allokerte bare 109 MB som cache, men den var også noe tregere enn de andre når systemet var varm.<br />
XFS allokerte 3.5 GB minne, hvorav 830 MB cache.<br />
ZFS allokerte 3.3 GB minne, hvorav 1.4 GB cache.<br />
BTRFS allokerte 5.9 GB minne, hvorav 3.7 GB cache.</p>
<h2>Konklusjon</h2>
<p>Vi anså XFS til å være best for våre behov.<br />
Den leverte svar innen akseptabel tid både da systemet var kaldt og varmt, og var også den raskeste til å levere usortert utlisting av filene.</p>
<p>ZFS skuffet stort med uakseptabelt trege svar.<br />
BTRFS brukte for mye minne, men ellers virket den lovende.</p>
<p>Felles for både BTRFS og ZFS var at komprimering var aktivert.<br />
Kanskje kunne minnebruken vært lavere for både BTRFS og ZFS om testingen ble utført uten komprimering.</p>
<p>Det er <a href="https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/log/fs/btrfs">god aktivitet rundt BTRFS i Linux-kildekoden</a> og ser ut til å bli arvtakeren til EXT3/4.<br />
BTRFS har funksjoner for blant annet komprimering og snapshotting, og det vil være aktuelt med ny vurdering av BTRFS senere.</p>
<h2>Avslutning-rant</h2>
<p>Etter at ny diskenhet ble koblet til Server1 og XFS ble satt opp, så dukket et nytt problem fram &#8211; overføring av filene fra EXT4-partisjonen til den nye XFS-partisjonen gikk i trege 1 MB/s.<br />
Løsningen ble å overføre filene tilbake fra Server2 sitt XFS-filsystem over NFS&#8230;</p>
<p>Et enda større problem møtte vi med en annen katalog, som inneholder omkring 1.1 millioner kataloger, som igjen inneholder filer, men mer om dette kan diskuteres over et par kanner kaffe &#8211; jeg har god tid&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>https://hovenko.no/blog/2014/12/02/millioner-av-filer-i-samme-katalog-pa-filsystemet-i-linux/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Bigdata RDF-server erfaringer</title>
		<link>https://hovenko.no/blog/2014/06/23/bigdata-rdf-server-erfaringer/</link>
		<comments>https://hovenko.no/blog/2014/06/23/bigdata-rdf-server-erfaringer/#comments</comments>
		<pubDate>Mon, 23 Jun 2014 09:13:25 +0000</pubDate>
		<dc:creator>Knut-Olav</dc:creator>
				<category><![CDATA[Infrastruktur]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Bigdata]]></category>
		<category><![CDATA[IT]]></category>
		<category><![CDATA[Java]]></category>
		<category><![CDATA[RDF]]></category>

		<guid isPermaLink="false">http://hovenko.no/blog/?p=813</guid>
		<description><![CDATA[I jobbsammenheng jobber jeg mye med modellering av data i RDF. Vi har lenge lagret RDF-grafer som filer på disk, men har den siste tida undersøkt flere RDF-databaser. Felles for de fleste grafdatabaser er at de trives best i RAM. Store installasjoner som skryter av å lagre milliarder av tripler består enten av servere med [...]]]></description>
			<content:encoded><![CDATA[<p>I jobbsammenheng jobber jeg mye med modellering av data i <a href="http://www.w3.org/RDF/">RDF</a>.</p>
<p>Vi har lenge lagret RDF-grafer som filer på disk, men har den siste tida undersøkt flere RDF-databaser.</p>
<p>Felles for de fleste grafdatabaser er at de trives best i RAM.<br />
<a href="http://www.w3.org/wiki/LargeTripleStores">Store installasjoner som skryter av å lagre milliarder av tripler</a> består enten av servere med masse minne, eller av mange maskiner i et kluster som tilsammen innehar mye minne &#8211; da snakker vi størrelsesorden hundrevis av GB RAM.</p>
<h2>Tidligere tester av RDF-databaser</h2>
<p>Vi har tidligere testet <a href="http://jena.apache.org/documentation/serving_data/index.html">Jena Fuseki</a> og <a href="http://virtuoso.openlinksw.com/">OpenLink Virtuoso</a>, men begge har sine irriterende problemer.</p>
<h3>Jena Fuseki TDB</h3>
<p>Jena Fuseki med TDB blir fort ubrukelig når databasen blir større enn Java heap-size, og den feiler ofte med OutOfMemoryError.<br />
Testet med 4 GB Java-heap.</p>
<h3>OpenLink Virtuoso</h3>
<p>OpenLink Virtuoso har vi testet i versjon 6 og versjon 7.<br />
Versjon 6, som følger med i pakkesystemet til Ubuntu, støttet ikke SPARQL UPDATE.<br />
Versjon 7 feiler når vi prøver å laste inn grafer som inneholder mange blank nodes, selv om vi klarte å hacke oss til en løsning ved å splitte opp insertene i mindre deler.<br />
Generelt sett har Virtuoso flere irriterende problemer, blant annet at den ikke forstår &#8220;INSERT DATA&#8221; fra SPARQL UPDATE &#8211; her måtte vi bruke &#8220;INSERT INTO&#8221;.</p>
<h2>Bigdata</h2>
<p>Jeg har i noen dager testet <a href="http://www.bigdata.com/">Bigdata</a>, en server for lagring og spørring over RDF-data.</p>
<p>Bigdata-serveren er en Java-applikasjon som kjører i en standard Servlet applikasjons-container.</p>
<h2>Innlasting av data</h2>
<p>Datagrunnlaget er oppdelt i 525K (<strong>525.000</strong>) grafer &#8211; dokumenter i RDF/TURTLE-format.</p>
<p>Grafene inneholder mange blank nodes, ressurser som ikke er navngitte og globalt identifisérbare med IRI.<br />
Grunnen til at vi bruker blank nodes er fordi vi konstruerer ressurser sammensatt av data fra kildesystemer som ikke tilordner ID-er til disse konseptene.<br />
Dersom vi skulle konstruert ID-er for disse ressursene må vi bruke mye energi og mange kodelinjer for å holde de ID-ene stabile, for å tilordne de samme ID-ene ved neste eksport fra kildesystemet &#8211; da er det mye enklere å konstruerer blank nodes.</p>
<p>Innlasting av data ble gjort graf for graf i form av <a href="http://www.w3.org/TR/sparql11-update/">SPARQL UPDATE</a>-meldinger over HTTP, hver delt i to seksjoner &#8211; først sletting av eksisterende tripler i grafen, for så innsetting av nye tripler i samme graf.</p>
<p>Sletting av grafer er en viktig funksjon i vårt tilfelle, da vi ønsker å bytte ut alle tripler fra en eventuell gammel versjon av grafen med tripler fra en ny versjon.<br />
Utskiftingen av hele grafer ønsker vi å gjøre som en atomisk operasjon for å unngå at en graf fremstår som tom før nye data lastes inn.</p>
<h3>Serveroppsett</h3>
<p>Jeg startet med å kjøre Bigdata i en Jetty-container på en server med 4 GB RAM og 100 GB disk &#8211; <strong>dbdev01</strong>.<br />
Med unntak av lokasjonen til journal-fila (databasen til Bigdata), kjørte jeg med standardinnstillinger og 2 GB Java-heap.</p>
<h3>Datamengder</h3>
<p>Mot denne lastet jeg inn ca 450K (<strong>450.000</strong>) grafer.<br />
Dette utgjorde i overkant av 84M (<strong>84.000.000</strong>) tripler.</p>
<p>Journal-fila vokste til 14 GB.</p>
<h3>Ytelse ved innlasting av data</h3>
<p>I starten klarte jeg å laste inn ca 10 grafer per sekund.<br />
Det er ikke spesielt imponerende hastighet, men siden dette var en test så lot jeg prosessen fortsette.<br />
Etter ett døgn var hastigheten nede i 2-3 grafer per sekund.<br />
Etter to døgn var hastigheten nede i 1-2 grafer per sekund.</p>
<p>Å gjøre SPARQL-spørringer mot databasen samtidig som importen pågikk var bortimot ubrukelig, selv enkle spørringer som å hente ut navn på 60 ressurser.<br />
Samtidig sakt importhastigheten ned til ca 1 graf per 10 sekunder.</p>
<p>Da var 450.000 grafer importert, 85% av datasettet vårt, som for tiden øker med ca 100.000 grafer per år.<br />
Dette skalerer ikke.<br />
Bestemte meg for å avbryte importen.</p>
<h3>Ny server med mer minne</h3>
<p>Jeg fikk en ny server til rådighet, med 32 GB RAM og 100 GB disk &#8211; <strong>dbdev02</strong>.<br />
Serveren kjørte allerede noen tjenester, så jeg hadde ca 28 GB RAM ledig.<br />
Ellers var det lite last på serveren.</p>
<p>Jeg kopierte journal-fila på 14GB fra dbdev01 til dbdev02, og starta opp Bigdata på begge servere, samme konfigurasjon, og med 1 GB Java heap.</p>
<h2>Ytelsestester spørringer</h2>
<p>Gjorde samme tester mot begge serverne.</p>
<h3>Test #1</h3>
<p>Første spørringen mot serveren er en SPARQL-spørring med datofiltrering og dybde på 5 (Vedlegg 1).<br />
Resultatet fra spørringen er ca 80K (<strong>80.000</strong>) løsninger, i SPARQL RESULTS XML-format på 75 MB.</p>
<p>Ved kald, nyoppstartet Bigdata var dbdev02 (24s) vesentlig raskere enn dbdev01 (2m31s).</p>
<p>Ved gjentatte utføringer av samme spørring var begge servere nokså like raske, også etter kjøring av andre relativt enklere spørringer i mellomtiden.</p>
<h3>Test #2</h3>
<p>En annen spørring som ga store utslag var med dybde på 4, uten filtrering og med LIMIT 100.000 (Vedlegg 2).<br />
Resultatet fra spørringen er ca 53K (<strong>53.000</strong>) løsninger, i SPARQL RESULTS XML-format på 22 MB.<br />
Resultatet var altså mindre enn den angitte begrensningen på 100K.</p>
<p>dbdev02 (1m19s) var mye raskere enn dbdev01 (12m23s).<br />
Dette var med varm database.</p>
<h3>Innlasting av data mot 32 GB minne</h3>
<p>En ny test av import av data, som inkluderer overskriving av gamle grafer, denne gang gjort mot dbdev02 med 32 GB minne, viser en importhastighet på ca 5 grafer i sekundet.</p>
<h2>Analyse av testresultatene</h2>
<p>Den største forskjellen er rett etter Bigdata nettopp har starta opp.<br />
Mange av spørringene som ga store utslag etter kald oppstart returnerte omtrent like raskt etter gjentagende spørringer.<br />
Dataene i resultatet blir muligens cachet et sted.</p>
<h3>Minne</h3>
<p>dbdev01 har etter noen spørringer lite ledig RAM, mens dbdev02 har mye ledig RAM.<br />
Det kan tyde mot at Bigdata har det bedre når mye av datafila ligger i minnet.</p>
<h3>Diskytelse</h3>
<p>Hjelper nok også om disken er rask.<br />
Virker som at disken er raskere på dbdev02 enn dbdev01.<br />
En test lokalt på hver server viser at kopiering av fil på 1 GB tok 14.5s på dbdev01 og 6.2s på dbdev02.<br />
Ingen prosesser på noen av boksene som bruker nevneverdig mye disk-IO når Bigdata idler.</p>
<h3>Swapping</h3>
<p>Kanskje swapping på dbdev01 kan være årsak, selv om swap-aktiviteten for tiden er lav.</p>
<p>Munin-graf over minne for dbdev02 viser en økning på 16GB i cache (fil-cache) etter oppstart av Bigdata.<br />
Null swapping.</p>
<p>Munin-graf over minne for dbdev01 er fullstendig mongo, går opp og ned som en jojo i den perioden Bigdata har kjørt (2 dager).<br />
Viser også mye swapping, spesielt under inserts.</p>
<h2>Konklusjon</h2>
<p>Bigdata trives veldig godt med mye RAM og bruker operativsystemets filcache for å få rask aksess til dataene.</p>
<p>Bigdata feiler ikke like dramatisk som Jena Fuseki TDB når minnet går fullt.<br />
Selv om vi endte opp med å teste Bigdata med mer minne enn vi testet med Jena Fuseki TDB, så taklet Bigdata med 4 GB minne mye større datasett enn Jena Fuseki TDB klarte med det samme.</p>
<p>Det er ikke så viktig med stor Java heap under innlasting av data.<br />
Heap-størrelsen øker når det gjøres spørringer, så større heap har kanskje en positiv effekt ved mange og tunge spørringer.</p>
<p>Den nye innlastingstesten viser at Bigdata er mye raskere på innlasting av data dersom den har nok minne til databasen.</p>
<h2>Vedlegg</h2>
<h3>Vedlegg 1: SPARQL Test #1</h3>
<p>SPARQL-spørring som lister ut avspilt musikk i en tidsperiode på én måned:</p>
<p><code>
<pre>
PREFIX dct: &lt;http://purl.org/dc/terms/&gt;
PREFIX ebuccdm: &lt;http://www.ebu.ch/metadata/ontologies/ebuccdm#&gt;
PREFIX digas: &lt;http://id.nrk.no/2013/digas/class/&gt;
PREFIX xsd: &lt;http://www.w3.org/2001/XMLSchema#&gt;

SELECT * WHERE {
  GRAPH ?g {
    ?part a digas:Music .
    ?timeline ebuccdm:hasTimelineTrackPart ?part .
    ?prog ebuccdm:hasTimelineTrack ?timeline .
    ?trans ebuccdm:playsOut ?prog .

    ?part dct:title ?partTitle .
    ?prog dct:title ?progTitle .
    ?trans ebuccdm:publicationStartDateTime ?startTime .
    FILTER ( ?startTime &gt;= &quot;2014-01-01T00:00:00+01:00&quot;^^xsd:dateTime ) .
    FILTER ( ?startTime &lt; &quot;2014-02-01T00:00:00+01:00&quot;^^xsd:dateTime ) .
  }
}
ORDER BY ?startTime
</pre>
<p></code></p>
<h3>Vedlegg 2: SPARQL Test #2</h3>
<p>SPARQL-spørring som lister ut medvirkende på programmer med en begrensning på 100.000 resultater:</p>
<p><code>
<pre>
PREFIX nrk: &lt;http://gluon.nrk.no/dataordbok.xml#&gt;
PREFIX dct: &lt;http://purl.org/dc/terms/&gt;
PREFIX ebuccdm: &lt;http://www.ebu.ch/metadata/ontologies/ebuccdm#&gt;

SELECT ?obj ?title ?contactName ?roleName
WHERE {
    ?obj a nrk:programme .
    ?obj dct:title ?title .
    ?obj ebuccdm:hasContributor ?contributor .
    ?contributor ebuccdm:contactName ?contactName .
    ?contributor ebuccdm:hasRole ?role .
    ?role ebuccdm:roleName ?roleName .
} LIMIT 100000
</pre>
<p></code></p>
]]></content:encoded>
			<wfw:commentRss>https://hovenko.no/blog/2014/06/23/bigdata-rdf-server-erfaringer/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
