diff --git a/htroot/WatchWebStructure_p.html b/htroot/WatchWebStructure_p.html index 077f64083..acee9b72d 100644 --- a/htroot/WatchWebStructure_p.html +++ b/htroot/WatchWebStructure_p.html @@ -35,7 +35,7 @@ To see a list of all APIs, please visit the -
+
host
diff --git a/htroot/js/WatchWebStructure.js b/htroot/js/WatchWebStructure.js index 9c9cb6d1a..7c9c6c8bd 100644 --- a/htroot/js/WatchWebStructure.js +++ b/htroot/js/WatchWebStructure.js @@ -5,4 +5,39 @@ function keydown(ev){ if(ev.which==13){ changeHost(); } +} + +/* Check if the input matches some RGB hex values */ +function isValidColor(hexcolor) { + var strPattern = /^[0-9a-f]{3,6}$/i; + return strPattern.test(hexcolor); +} + +function checkform(form) { + if (isValidColor(form.colorback.value)) { + if (isValidColor(form.colortext.value)) { + if (isValidColor(form.colorline.value)) { + if (isValidColor(form.colordot.value)) { + if (isValidColor(form.colorlineend.value)) { + return true; + } else { + alert("Invalid Dot-end value: " + form.colorlineend.value); + return false; + } + } else { + alert("Invalid Dot value: " + form.colordot.value); + return false; + } + } else { + alert("Invalid Line value: " + form.colorline.value); + return false; + } + } else { + alert("Invalid Text value: " + form.colortext.value); + return false; + } + } else { + alert("Invalid Background value: " + form.colorback.value); + return false; + } } \ No newline at end of file diff --git a/htroot/proxymsg/error.html b/htroot/proxymsg/error.html index 2ccb15555..0f2c50229 100644 --- a/htroot/proxymsg/error.html +++ b/htroot/proxymsg/error.html @@ -23,7 +23,7 @@ #(printStackTrace)#::
-

Exception occured: #[exception]#

+

Exception occurred: #[exception]#

TRACE:
       #[stacktrace]#
#(/printStackTrace)# diff --git a/locales/de.lng b/locales/de.lng index 4b0dbcf44..dd56aa11e 100644 --- a/locales/de.lng +++ b/locales/de.lng @@ -898,7 +898,7 @@ These records had been imported from surrogate files in DATA/SURROGATES/in==Dies \(i.e.
wikimedia import, OAI-PMH retrieval\)==(z.B. WikiMedia Dump Import, OAI-PMH Import\) #Domain==Domain #URLs=URLs -"delete all"=="alle löschen" +"delete all"=="Alle Löschen" Showing all \#\[all\]\# entries in this stack.==Zeigt alle #[all]# Einträge in diesem Bereich. Showing latest \#\[count\]\# lines from a stack of \#\[all\]\# entries.==Zeigt die letzten #[count]# Einträge aus diesem Bereich von insgesamt #[all]# Einträgen. "clear list"=="Liste leeren" @@ -950,8 +950,8 @@ not as double and load them again. No scheduled re-crawl.==bekannt sind nicht al after starting this crawl, repeat the crawl every==Nach dem Start dieses Crawls, führe ihn jede > automatically.==> automatisch aus. A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Ein Web Crawl führt eine Dubletten Prüfung anhand einer internen Datenbank gegen alle im Internet gefunden Links durch. Wenn dieselbe URL wieder gefunden wird, -then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==wird die URL als Dublette behandelt wenn die 'Keine Doubletten' option ausgewählt wurde. Eine URL kann noch einmal geladen werden wenn sie ein bestimmtes Alter erreicht hat. -to use that check the \'once\' option. When you want that this web crawl is repeated automatically, then check the \'scheduled\' option.==Dafür kann die 'Nachladen' Option verwendet werden. Wenn der Web Crawl automatisch wiederholt werden soll, kann die 'Geplant' Option ausgewählt werden. +then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==wird die URL als Dublette behandelt wenn die 'Keine Doubletten' Option ausgewählt wurde. Eine URL kann noch einmal geladen werden wenn sie ein bestimmtes Alter erreicht hat. +to use that check the \'re-load\' option. When you want that this web crawl is repeated automatically, then check the \'scheduled\' option.==Dafür kann die 'Nachladen' Option verwendet werden. Wenn der Web Crawl automatisch wiederholt werden soll, kann die 'Geplant' Option ausgewählt werden. In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==In diesem Fall wird der Crawl erneut nach der eingestellten Zeit ausgeführt und keine URL aus einem vorhergegangenem Crawl wird als Dublette ausgelassen. Must-Match Filter==Muss-entsprechen Filter Use filter==Filter nutzen @@ -3001,6 +3001,12 @@ depth<==Tiefe< nodes<==Knoten< time<==Zeit< size<==Größe< +>Background<==>Hintergrund< +#>Text<==>Text< +>Line<==>Linie< +>Dot<==>Punkt< +>Dot-end<==>Punktende< +>Color <==>Farbe < "change"=="Ändern" #-----------------------------