問題タブ [dokuwiki]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
php - DokuWikiの特異な検索エラー
DokuWikiフォーラムからこれをクロスポストします:
そこで、ページ名の大文字化、サイドバーのToCでの自然な大文字と小文字の並べ替え、大文字と小文字を区別しない検索の3つを可能にするためにいくつかの変更を加えていました。
これはファイルのアクセス許可エラーのように見えるので、我慢してください。私はそうは思わない。
「nul」とそのバリエーション(nUl、Nul、nuLなど)を検索すると、次のエラーメッセージが表示されます。
「nul」という名前のページはありませんし、これまでにありませんでした。検索が完了すると、検索したものと同じコンテンツ(nul、NuL、nUlなど)を含む新しい行が\ dokuwiki \ data \ index\page.idxに追加されます。その行がpage.idxに追加されると、文字「n」、「u」、または「l」を検索すると、エラーが発生します。
繰り返しになりますが、ページ「nul」はwikiに存在したことがなく、検索時にpage.idxに書き込まれます。
投稿の冒頭で述べた3つのことを達成するために行った変更は次のとおりです。
/inc/fulltext.php、255行目と263行目:「strpos」を「stripos」に置き換えました。
/inc/pageutils.php、114行目が削除されました:
/inc/search.php、40行目と41行目:「sort」を「natcasesort」に置き換えました
私が知る限り、これらはすべてマイナーな変更であり、この問題の原因となるような明らかな変更はすぐには見られません。
何か案は?
更新-
すべての変更を元に戻しましたが、エラーが解決しません。
次に、新しいDokuWiki(Release 2010-11-07a "Anteater")を完全に別のディレクトリにインストールしましたが、エラーが解決しません。
次に、splitbrain.orgから毎晩スナップショットをインストールしましたが、エラーが解決しません。
誰かアイデアはありますか?
navigation - IIRFを使用したURL書き換えにより、dokuwikiが遅くなります
編集:この場合、IIRF.iniコードは問題ではなく、dokuwikiのパフォーマンスの問題は実際にはアクセス許可に関連しており、URLの書き換えの導入は問題の原因ではありませんでした。
IIRFを使用してURL書き換えを統合する前は、完全に正常に実行されていたDokuwikiの新しいインスタンス(つまり、ほとんど空で、使用されていません)があります。
実行速度が大幅に低下しました。ページ間を移動するには数秒かかりますが、以前は「スナッピー」(即時)でした。
ここでIIRFを実装するための指示に従いました。これには、基本的に「IIRF.ini」ファイルをサイトルートに追加し、上記のリンク先のサイトで指示されているように「conf / local.php」ファイルを更新することが含まれます(見出しの下からコピーされたコード「IonicsIsapiリライトフィルター」)。
したがって、明確にするために、URL書き換えは機能しています; しかし、それはwikiをナビゲートする際に大幅な速度低下を引き起こしました。誰かがそれを再びスピードアップするための提案を提供できれば幸いです!
これは私の「IIRF.ini」ファイルの内容です。
mercurial - filespecに一致し、前回の更新以降に変更されたファイルを識別するMercurialコマンド
理想的には、バッチファイルを使用しているので、これを行うためのステートレスな方法を探しています。
シナリオは、ユーザーからのプッシュを受信するサーバー上にリポジトリがあるというものです。リポジトリは、wikiページ(dokuwiki)のソースである作業コピーでもあります。これは、リポジトリにあるテキストファイルであり、wikiの各ページに1つずつあります。
これはWebサーバー上にあるため、作業コピーは誰もインタラクティブに使用しません。むしろ、バッチファイルは定期的に実行され、適切なコマンドを発行して、リポジトリにプッシュされた最新の変更で作業コピーを最新の状態に保ちます。実装の補足として、wikiからの作業コピーへの変更も受け入れ、それらを同じストロークでマージしてコミットしようとします。
バッチファイルは次のようになります。
これはテキストファイルでは問題なく機能しますが、dokuwikiでは、グラフィックなどのメディアを別のディレクトリに保存する必要があります。これが最後のfor
ステートメントの目的です。
それまでは、スクリプトの改善には関心がないことに注意してください。これは、この環境で更新を行うための望ましい方法として精査されています。
最後のコピーの問題は、変更されたかどうかに関係なく、すべてのグラフィックをコピーすることです。明らかに、変更されたグラフィックのみをコピーする方がよいでしょう。前回の更新以降、このリポジトリに複数のプッシュがあった可能性があるため、この作業コピーが最後に更新されたとき、つまりこのスクリプトが最後に実行されたとき以降に変更されたグラフィックのみを識別してコピーしたいと思いますhg update
。
これを手に負えない直感的な方法は考えられません。スクリプトの実行間で情報を手動で保持する必要がない場合は最善ですが、それは問題外ではありません。
wget - wget を使用して DokuWiki ページをプレーンな xhtml 形式のみでダウンロードする
現在、offline-dokuwiki[1] シェル スクリプトを修正して、アプリケーションのインスタンス内に自動的に埋め込むアプリケーションの最新ドキュメントを取得しています。これは、現在の形式では各ページの 3 つのバージョンを取得することを除いて、非常にうまく機能します。
- ヘッダーとフッターを含むページ全体
- ヘッダーとフッターなしのコンテンツのみ
- 生のウィキ構文
私が実際に興味を持っているのは 2 だけです。これは、次のよう<link>
に の html タグによってメイン ページからリンクされています。<head>
メインの Wiki ページと同じ URL ですが、クエリ文字列に「do=export_xhtml」が含まれているだけです。これらのバージョンのみをダウンロードするか、それがたどるリンクの最後に「&do=export_xhtml」を自動的に追加するよう wget に指示する方法はありますか? もしそうなら、これは大きな助けになるでしょう。
[1] http://www.dokuwiki.org/tips:offline-dokuwiki.sh (作者: samlt)
sql - DokuWikiとSQLコード
最近、自分のドメインにDokuWikiをインストールして、1つの厄介な問題が発生しました。私はそのようなコードを入力しようとしています:
タグ間で、変更をプレビューまたは保存しようとすると、DokuWikiに次のように表示されます。
これを修正する方法は?
php - dokuwiki:dokuwikiでバージョン管理を無効にする
dokuwikiに関するヘルプが必要です。wikiからバージョン管理を削除したいです。どんなヒントでも私たちの助けは大歓迎です。事前のおかげで私はこのコードを調べましたが、これまでのところ何もわかりませんでした
`class cache_renderer extends cache_parser {function _useCache(){global $ conf;
sharepoint-2010 - Dokuwiki ページでの FAST Search for Sharepoint Crawler の問題
私のフラストレーションのレベルは、Dokuwiki サイトをクロールすることで最大になっています。
Dokuwiki/doku.php サイトをクロールするように設定した SharePoint の FAST 検索を使用するコンテンツ ソースがあります。私のクローラー ルールは次のように設定されています: http://servername/ * 、大文字と小文字を区別し、複雑な URL をクロールするこのパス内のすべてのアイテムを含めます。クロール ルールでコンテンツ ソースをテストすると、クローラーによってクロールされることが示されます。ただし..... クロールは常に 2 分未満で終了し、指定したページのみをクロールして完了し、そのページには他のリンクはありません。Dokuwki 管理者に確認したところ、ロボットのテキストを許可するように設定されています。ページのソースを見ると、 meta name="robots" content="index,follow" と書かれていることがわかります
他のリンクされたページに問題がないことをテストするために、これらのリンクを手動でコンテンツ ソースに追加し、再クロールしました。例のソース ページには 3 つのリンクがあります。
- サイトA
- サイト B
- サイトC。
サイト A、B、C の URL をクロール ソースに追加しました。このクロールの結果は 4 回成功し、プライマリ ソース ページと他のリンク A、B、および C が手動で追加されました。
私の質問は、クローラーがページ上のリンクをクロールしないのはなぜですか? これは私の側のクローラーで行う必要があることですか、それとも名前空間の定義方法と Dokuwiki でのリンクの作成方法と関係があることですか?
どんな助けでもいただければ幸いです
エリック
wiki - wiki 記事の 2 段階承認プロセス
2 段階の承認プロセスを許可するように Wiki を構成しようとしています。基本的なワークフローには次のようなものが必要です。
- ユーザーのグループが短いフォームを送信します
- 管理者の承認後、グループはより大きなフォームを使用できるようになります
- グループはより大きなフォームを送信します
- 管理者の承認後、ページ (フォームで入力) が公開されます
私はしばらくの間、TikiWiki と MediaWiki を調べて、それぞれをこのモデルに近づけるように構成しようとしましたが、いくつかの問題が発生しています。
TikiWiki では、グループの権限を変更して新しいトラッカーへのアクセスを許可するか、フォームのカテゴリを変更して 1 つのフォームを閉じて別のフォームを開くかのいずれかで、承認段階を移行する必要があるようですが、特定できていません。その構成のアクセス許可。
MediaWiki の主な問題は、バックエンドが複雑なパーミッションを持つように作成されていないことです。これを構築するために SMWHalo を SemanticForms と共に使用してきましたが、グループまたはフォームのいずれかの権限を自動的に変更するための Tikiwiki のトランジションのようなものは見つかりません。
私は Wiki 開発に少し慣れていませんが、Wiki フレームワークには多くのオプションがあることを知っているので、この製品の優れたワークフローについて提案を求めています。私の目標は、フレームワーク コードに実際に触れて最終的な調整を行うことであり、すでに十分に開発されたコード ベースの変更を開始することではありません。
dokuwiki - SVN を使用した DokuWiki: ソース管理下に置くべきものと方法
ドキュメントを SVN ソース管理下に保存したいと考えています。
DokuWikiの設定には
DokuWiki は、すべてのデータを「.../apps/dokuwiki/data」フォルダーの下のテキスト ファイル内に保存します。インデックスキャッシュなどを含む多くのものがあります。 「ページ」フォルダーだけが必要なようです。
'pages'フォルダーを SVN フォルダー内に移動し、そこからページを使用するように DocuWiki を構成するにはどうすればよいですか?