麻豆小视频在线观看_中文黄色一级片_久久久成人精品_成片免费观看视频大全_午夜精品久久久久久久99热浪潮_成人一区二区三区四区

首頁(yè) > 開(kāi)發(fā) > 綜合 > 正文

Sphinx 配置

2024-07-21 02:51:59
字體:
來(lái)源:轉(zhuǎn)載
供稿:網(wǎng)友

source:數(shù)據(jù)源,數(shù)據(jù)是從什么地方來(lái)的。 index:索引,當(dāng)有數(shù)據(jù)源之后,從數(shù)據(jù)源處構(gòu)建索引。索引實(shí)際上就是相當(dāng)于一個(gè)字典檢索。有了整本字典內(nèi)容以后,才會(huì)有字典檢索。searchd:提供搜索查詢服務(wù)。它一般是以deamon的形式運(yùn)行在后臺(tái)的。indexer:構(gòu)建索引的服務(wù)。當(dāng)要重新構(gòu)建索引的時(shí)候,就是調(diào)用indexer這個(gè)命令。attr:屬性,屬性是存在索引中的,它不進(jìn)行全文索引,但是可以用于過(guò)濾和排序。

配置文件

## 數(shù)據(jù)源src1source src1{    ## 說(shuō)明數(shù)據(jù)源的類型。數(shù)據(jù)源的類型可以是:MySQL,pgsql,mssql,xmlpipe,odbc,python    type            = mysql        ## 下面是sql數(shù)據(jù)庫(kù)特有的端口,用戶名,密碼,數(shù)據(jù)庫(kù)名等。    sql_host        = localhost    sql_user        = test    sql_pass       =    sql_db          = test    sql_port        = 3306    ## 如果是使用unix sock連接可以使用這個(gè)。    # sql_sock      = /tmp/mysql.sock    ## indexer和mysql之間的交互,需要考慮到效率和安全性。    ## 比如考慮到效率,他們兩者之間的交互需要使用壓縮協(xié)議;考慮到安全,他們兩者之間的傳輸需要使用ssl    ## 那么這個(gè)參數(shù)就代表這個(gè)意思,0/32/2048/32768  無(wú)/使用壓縮協(xié)議/握手后切換到ssl/Mysql 4.1版本身份認(rèn)證。    # mysql_connect_flags   = 32    ## 當(dāng)mysql_connect_flags設(shè)置為2048(ssl)的時(shí)候,下面幾個(gè)就代表ssl連接所需要使用的幾個(gè)參數(shù)。    # mysql_ssl_cert        = /etc/ssl/client-cert.pem    # mysql_ssl_key     = /etc/ssl/client-key.pem    # mysql_ssl_ca      = /etc/ssl/cacert.pem    ## odbc的dsn串    # odbc_dsn      = DBQ=C:/data;DefaultDir=C:/data;Driver={Microsoft Text Driver (*.txt; *.csv)};        ## sql某一列的緩沖大小,一般是針對(duì)字符串來(lái)說(shuō)的。    ## 為什么要有這么一種緩沖呢?    ## 有的字符串,雖然長(zhǎng)度很長(zhǎng),但是實(shí)際上并沒(méi)有使用那么長(zhǎng)的字符,所以在Sphinx并不會(huì)收錄所有的字符,而是給每個(gè)屬性一個(gè)緩存作為長(zhǎng)度限制。    ## 默認(rèn)情況下非字符類型的屬性是1KB,字符類型的屬性是1MB。    ## 而如果想要配置這個(gè)buffer的話,就可以在這里進(jìn)行配置了。    # sql_column_buffers    = content=12M, comments=1M    ## indexer的sql執(zhí)行前需要執(zhí)行的操作。    # sql_query_PRe     = SET NAMES utf8    # sql_query_pre     = SET session query_cache_type=OFF    ## indexer的sql執(zhí)行語(yǔ)句    sql_query       = /        SELECT id, group_id, UNIX_TIMESTAMP(date_added) AS date_added, title, content /        FROM documents    ## 有的時(shí)候有多個(gè)表,我們想要查詢的字段在其他表中。這個(gè)時(shí)候就需要對(duì)sql_query進(jìn)行join操作。    ## 而這個(gè)join操作可能非常慢,導(dǎo)致建立索引的時(shí)候特別慢,那么這個(gè)時(shí)候,就可以考慮在sphinx端進(jìn)行join操作了。    ## sql_joined_field是增加一個(gè)字段,這個(gè)字段是從其他表查詢中查詢出來(lái)的。    ## 這里封號(hào)后面的查詢語(yǔ)句是有要求的,如果是query,則返回id和查詢字段,如果是payload-query,則返回id,查詢字段和權(quán)重。    ## 并且這里的后一個(gè)查詢需要按照id進(jìn)行升序排列。    # sql_joined_field  = tags from query; SELECT docid, CONCAT('tag',tagid) FROM tags ORDER BY docid ASC    # sql_joined_field  = wtags from payload-query; SELECT docid, tag, tagweight FROM tags ORDER BY docid ASC    ## 外部文件字段,意思就是一個(gè)表中,有一個(gè)字段存的是外部文件地址,但是實(shí)際的字段內(nèi)容在文件中。比如這個(gè)字段叫做content_file_path。    ## 當(dāng)indexer建立索引的時(shí)候,查到這個(gè)字段,就讀取這個(gè)文件地址,然后加載,并進(jìn)行分詞和索引建立等操作。    # sql_file_field        = content_file_path    ## 當(dāng)數(shù)據(jù)源數(shù)據(jù)太大的時(shí)候,一個(gè)sql語(yǔ)句查詢下來(lái)往往很有可能鎖表等操作。    ## 那么我么就可以使用多次查詢,那么這個(gè)多次查詢就需要有個(gè)范圍和步長(zhǎng),sql_query_range和sql_range_step就是做這個(gè)使用的。    ## 獲取最大和最小的id,然后根據(jù)步長(zhǎng)來(lái)獲取數(shù)據(jù)。比如下面的例子,如果有4500條數(shù)據(jù),這個(gè)表建立索引的時(shí)候就會(huì)進(jìn)行5次sql查詢。     ## 而5次sql查詢每次的間隔時(shí)間是使用sql_ranged_rhrottle來(lái)進(jìn)行設(shè)置的。單位是毫秒。    # sql_query_range       = SELECT MIN(id),MAX(id) FROM documents    # sql_range_step        = 1000    # sql_ranged_throttle   = 0    ## 下面都是些不同屬性的數(shù)據(jù)了    ## 先要了解屬性的概念:屬性是存在索引中的,它不進(jìn)行全文索引,但是可以用于過(guò)濾(filter)和排序(order)。    ## uint無(wú)符號(hào)整型屬性    sql_attr_uint       = group_id        ## bool屬性    # sql_attr_bool     = is_deleted        ## 長(zhǎng)整型屬性    # sql_attr_bigint       = my_bigint_id        ## 時(shí)間戳屬性,經(jīng)常被用于做排序    sql_attr_timestamp  = date_added    ## 字符串排序?qū)傩浴R话阄覀儼凑兆址判虻脑挘覀儠?huì)將這個(gè)字符串存下來(lái)進(jìn)入到索引中,然后在查詢的時(shí)候比較索引中得字符大小進(jìn)行排序。    ## 但是這個(gè)時(shí)候索引就會(huì)很大,于是我們就想到了一個(gè)方法,我們?cè)诮⑺饕臅r(shí)候,先將字符串值從數(shù)據(jù)庫(kù)中取出,暫存,排序。    ## 然后給排序后的數(shù)組分配一個(gè)序號(hào),然后在建立索引的時(shí)候,就將這個(gè)序號(hào)存入到索引中去。這樣在查詢的時(shí)候也就能完成字符串排序的操作。    ## 這,就是這個(gè)字段的意義。    # sql_attr_str2ordinal  = author_name    ## 浮點(diǎn)數(shù)屬性,經(jīng)常在查詢地理經(jīng)緯度的時(shí)候會(huì)用到。    # sql_attr_float        = lat_radians    # sql_attr_float        = long_radians    ## 多值屬性(MVA)    ## 試想一下,有一個(gè)文章系統(tǒng),每篇文章都有多個(gè)標(biāo)簽,這個(gè)文章就叫做多值屬性。    ## 我要對(duì)某個(gè)標(biāo)簽進(jìn)行查詢過(guò)濾,那么在建立查詢的時(shí)候就應(yīng)該把這個(gè)標(biāo)簽的值放入到索引中。    ## 這個(gè)字段,sql_attr_multi就是用來(lái)做這個(gè)事情的。    # sql_attr_multi        = uint tag from query; SELECT docid, tagid FROM tags    # sql_attr_multi        = uint tag from ranged-query; /    #   SELECT docid, tagid FROM tags WHERE id>=$start AND id<=$end; /    #   SELECT MIN(docid), MAX(docid) FROM tags    ## 字符串屬性。    # sql_attr_string       = stitle    ## 文檔詞匯數(shù)記錄屬性。比如下面就是在索引建立的時(shí)候增加一個(gè)詞匯數(shù)的字段    # sql_attr_str2Wordcount    = stitle    ## 字符串字段,可全文搜索,可返回原始文本信息。    # sql_field_string  = author    ## 文檔詞匯數(shù)記錄字段,可全文搜索,可返回原始信息    # sql_field_str2wordcount   = title    ## 取后查詢,在sql_query執(zhí)行后立即操作。    ## 它和sql_query_post_index的區(qū)別就是執(zhí)行時(shí)間不同    ## sql_query_post是在sql_query執(zhí)行后執(zhí)行,而sql_query_post_index是在索引建立完成后才執(zhí)行。    ## 所以如果要記錄最后索引執(zhí)行時(shí)間,那么應(yīng)該在sql_query_post_index中執(zhí)行。    ##***** 在做增量索引的時(shí)候用sql_query_post標(biāo)記最后一條數(shù)據(jù),因?yàn)閟ql_query_post_index會(huì)在query查完后,有個(gè)創(chuàng)建索引的過(guò)程,這就會(huì)造成一定的延時(shí)。    # sql_query_post        =    ## 參考sql_query_post的說(shuō)明。    # sql_query_post_index  = REPLACE INTO counters ( id, val ) /    #   VALUES ( 'max_indexed_id', $maxid )    ## 比如有兩個(gè)索引,一個(gè)索引比較舊,一個(gè)索引比較新,那么舊索引中就會(huì)有數(shù)據(jù)是舊的。    ## 當(dāng)我要對(duì)兩個(gè)索引進(jìn)行搜索的時(shí)候,哪些數(shù)據(jù)要按照新的索引來(lái)進(jìn)行查詢呢。    ## 這個(gè)時(shí)候就使用到了這個(gè)字段了。    ## 這里的例子(http://www.coreseek.cn/docs/coreseek_4.1-sphinx_2.0.1-beta.html#conf-sql-query-killlist)給的非常清晰了。(經(jīng)測(cè)試沒(méi)發(fā)現(xiàn)有什么不同,不知道是bug還是使用方式不對(duì))    # sql_query_killlist    = SELECT id FROM documents WHERE edited>=@last_reindex    ## 下面幾個(gè)壓縮解壓的配置都是為了一個(gè)目的:讓索引重建的時(shí)候不要影響數(shù)據(jù)庫(kù)的性能表現(xiàn)。    ## SQL數(shù)據(jù)源解壓字段設(shè)置    # unpack_zlib       = zlib_column    ## MySQL數(shù)據(jù)源解壓字段設(shè)置    # unpack_mysqlcompress  = compressed_column    # unpack_mysqlcompress  = compressed_column_2    ## MySQL數(shù)據(jù)源解壓緩沖區(qū)設(shè)置    # unpack_mysqlcompress_maxsize  = 16M}## sphinx的source是有繼承這么一種屬性的,意思就是除了父source之外,這個(gè)source還有這個(gè)特性,類似于java的繼承與多態(tài)。source src1throttled : src1{    sql_ranged_throttle = 100}## 索引test1index test1{    ## 索引類型,包括有plain,distributed和rt。分別是普通索引/分布式索引/實(shí)時(shí)索引。默認(rèn)是plain。    # type          = plain    ## 索引數(shù)據(jù)源    source          = src1    ## 索引文件存放路徑    path            = /usr/local/sphinx/var/data/test1    ## 文檔信息的存儲(chǔ)模式,包括有none,extern,inline。默認(rèn)是extern。    ## docinfo指的就是數(shù)據(jù)的所有屬性(field)構(gòu)成的一個(gè)集合。    ## 首先文檔id是存儲(chǔ)在一個(gè)文件中的(spa)    ## 當(dāng)使用inline的時(shí)候,文檔的屬性和文件的id都是存放在spa中的,所以進(jìn)行查詢過(guò)濾的時(shí)候,不需要進(jìn)行額外操作。    ## 當(dāng)使用extern的時(shí)候,文檔的屬性是存放在另外一個(gè)文件(spd)中的,但是當(dāng)啟動(dòng)searchd的時(shí)候,會(huì)把這個(gè)文件加載到內(nèi)存中。    ## extern就意味著每次做查詢過(guò)濾的時(shí)候,除了查找文檔id之外,還需要去內(nèi)存中根據(jù)屬性進(jìn)行過(guò)濾。    ## 但是即使這樣,extern由于文件大小小,效率也不低。所以不是有特殊要求,一般都是使用extern    docinfo         = extern    ## 緩沖內(nèi)存鎖定。    ## searchd會(huì)講spa和spi預(yù)讀取到內(nèi)存中。但是如果這部分內(nèi)存數(shù)據(jù)長(zhǎng)時(shí)間沒(méi)有訪問(wèn),則它會(huì)被交換到磁盤上。    ## 設(shè)置了mlock就不會(huì)出現(xiàn)這個(gè)問(wèn)題,這部分?jǐn)?shù)據(jù)會(huì)一直存放在內(nèi)存中的。    mlock           = 0    ## 詞形處理器    ## 詞形處理是什么意思呢?比如在英語(yǔ)中,dogs是dog的復(fù)數(shù),所以dog是dogs的詞干,這兩個(gè)實(shí)際上是同一個(gè)詞。    ## 所以英語(yǔ)的詞形處理器會(huì)講dogs當(dāng)做dog來(lái)進(jìn)行處理。    morphology      = none    ## 詞形處理有的時(shí)候會(huì)有問(wèn)題,比如將gps處理成gp,這個(gè)設(shè)置可以允許根據(jù)詞的長(zhǎng)度來(lái)決定是否要使用詞形處理器。    # min_stemming_len  = 1    ## 詞形處理后是否還要檢索原詞?    # index_exact_words = 1    ## 停止詞,停止詞是不被索引的詞。    # stopwords     = /usr/local/sphinx/var/data/stopwords.txt    ## 自定義詞形字典    # wordforms     = /usr/local/sphinx/var/data/wordforms.txt    ## 詞匯特殊處理。    ## 有的一些特殊詞我們希望把它當(dāng)成另外一個(gè)詞來(lái)處理。比如,c++ => cplusplus來(lái)處理。    # exceptions        = /usr/local/sphinx/var/data/exceptions.txt    ## 最小索引詞長(zhǎng)度,小于這個(gè)長(zhǎng)度的詞不會(huì)被索引。    min_word_len        = 1    ## 字符集編碼類型,可以為sbcs,utf-8。對(duì)于Coreseek,還可以有zh_cn.utf-8,zh_ch.gbk,zh_ch.big5    charset_type        = sbcs    ## 字符表和大小寫(xiě)轉(zhuǎn)換規(guī)則。對(duì)于Coreseek,這個(gè)字段無(wú)效。    # 'sbcs' default value is    # charset_table     = 0..9, A..Z->a..z, _, a..z, U+A8->U+B8, U+B8, U+C0..U+DF->U+E0..U+FF, U+E0..U+FF    #    # 'utf-8' default value is    # charset_table     = 0..9, A..Z->a..z, _, a..z, U+410..U+42F->U+430..U+44F, U+430..U+44F    ## 忽略字符表。在忽略字符表中的前后詞會(huì)被連起來(lái)當(dāng)做一個(gè)單獨(dú)關(guān)鍵詞處理。    # ignore_chars      = U+00AD    ## 是否啟用通配符,默認(rèn)為0,不啟用    # enable_star       = 1    ## min_prefix_len,min_infix_len,prefix_fields,infix_fields都是在enable_star開(kāi)啟的時(shí)候才有效果。    ## 最小前綴索引長(zhǎng)度    ## 為什么要有這個(gè)配置項(xiàng)呢?    ## 首先這個(gè)是當(dāng)啟用通配符配置啟用的前提下說(shuō)的,前綴索引使得一個(gè)關(guān)鍵詞產(chǎn)生了多個(gè)索引項(xiàng),導(dǎo)致索引文件體積和搜索時(shí)間增加巨大。    ## 那么我們就有必要限制下前綴索引的前綴長(zhǎng)度,比如example,當(dāng)前綴索引長(zhǎng)度設(shè)置為5的時(shí)候,它只會(huì)分解為exampl,example了。    # min_prefix_len        = 0    ## 最小索引中綴長(zhǎng)度。理解同上。    # min_infix_len     = 0    ## 前綴索引和中綴索引字段列表。并不是所有的字段都需要進(jìn)行前綴和中綴索引。    # prefix_fields     = filename    # infix_fields      = url, domain    ## 詞匯展開(kāi)    ## 是否盡可能展開(kāi)關(guān)鍵字的精確格式或者型號(hào)形式    # expand_keywords       = 1    ## N-Gram索引的分詞技術(shù)    ## N-Gram是指不按照詞典,而是按照字長(zhǎng)來(lái)分詞,這個(gè)主要是針對(duì)非英文體系的一些語(yǔ)言來(lái)做的(中文、韓文、日文)    ## 對(duì)coreseek來(lái)說(shuō),這兩個(gè)配置項(xiàng)可以忽略。    # ngram_len     = 1    # ngram_chars       = U+3000..U+2FA1F    ## 詞組邊界符列表和步長(zhǎng)    ## 哪些字符被看做分隔不同詞組的邊界。    # phrase_boundary       = ., ?, !, U+2026 # horizontal ellipsis    # phrase_boundary_step  = 100    ## 混合字符列表    # blend_chars       = +, &, U+23    # blend_mode        = trim_tail, skip_pure    ## html標(biāo)記清理,是否從輸出全文數(shù)據(jù)中去除HTML標(biāo)記。    html_strip      = 0    ## HTML標(biāo)記屬性索引設(shè)置。    # html_index_attrs  = img=alt,title; a=title;    ## 需要清理的html元素    # html_remove_elements  = style, script    ## searchd是預(yù)先打開(kāi)全部索引還是每次查詢?cè)俅蜷_(kāi)索引。    # preopen           = 1    ## 字典文件是保持在磁盤上還是將他預(yù)先緩沖在內(nèi)存中。    # ondisk_dict       = 1    ## 由于在索引建立的時(shí)候,需要建立臨時(shí)文件和和副本,還有舊的索引    ## 這個(gè)時(shí)候磁盤使用量會(huì)暴增,于是有個(gè)方法是臨時(shí)文件重復(fù)利用    ## 這個(gè)配置會(huì)極大減少建立索引時(shí)候的磁盤壓力,代價(jià)是索引建立速度變慢。    # inplace_enable        = 1    # inplace_hit_gap       = 0 # preallocated hitlist gap size    # inplace_docinfo_gap   = 0 # preallocated docinfo gap size    # inplace_reloc_factor  = 0.1 # relocation buffer size within arena    # inplace_write_factor  = 0.1 # write buffer size within arena    ## 在經(jīng)過(guò)過(guò)短的位置后增加位置值    # overshort_step        = 1    ## 在經(jīng)過(guò) 停用詞 處后增加位置值    # stopword_step     = 1    ## 位置忽略詞匯列表    # hitless_words     = all    # hitless_words     = hitless.txt    ## 是否檢測(cè)并索引句子和段落邊界    # index_sp          = 1    ## 字段內(nèi)需要索引的HTML/XML區(qū)域的標(biāo)簽列表    # index_zones       = title, h*, th}index test1stemmed : test1{    path            = /usr/local/sphinx/var/data/test1    morphology      = stem_en}index dist1{    type            = distributed    local           = test1    local           = test1stemmed    ## 分布式索引(distributed index)中的遠(yuǎn)程代理和索引聲明    agent           = localhost:9313:remote1    agent           = localhost:9314:remote2,remote3    # agent         = /var/run/searchd.sock:remote4    ## 分布式索引( distributed index)中聲明遠(yuǎn)程黑洞代理    # agent_blackhole       = testbox:9312:testindex1,testindex2    ## 遠(yuǎn)程代理的連接超時(shí)時(shí)間    agent_connect_timeout   = 1000    ## 遠(yuǎn)程查詢超時(shí)時(shí)間    agent_query_timeout = 3000}index rt{    type            = rt    path            = /usr/local/sphinx/var/data/rt    ## RT索引內(nèi)存限制    # rt_mem_limit      = 512M    ## 全文字段定義    rt_field        = title    rt_field        = content    ## 無(wú)符號(hào)整數(shù)屬性定義    rt_attr_uint        = gid    ## 各種屬性定義    # rt_attr_bigint        = guid    # rt_attr_float     = gpa    # rt_attr_timestamp = ts_added    # rt_attr_string        = author}indexer{    ## 建立索引的時(shí)候,索引內(nèi)存限制    mem_limit       = 32M    ## 每秒最大I/O操作次數(shù),用于限制I/O操作    # max_iops      = 40    ## 最大允許的I/O操作大小,以字節(jié)為單位,用于I/O節(jié)流    # max_iosize        = 1048576    ## 對(duì)于XMLLpipe2數(shù)據(jù)源允許的最大的字段大小,以字節(jié)為單位    # max_xmlpipe2_field    = 4M    ## 寫(xiě)緩沖區(qū)的大小,單位是字節(jié)    # write_buffer      = 1M    ## 文件字段可用的最大緩沖區(qū)大小,字節(jié)為單位    # max_file_field_buffer = 32M}## 搜索服務(wù)配置searchd{    # listen            = 127.0.0.1    # listen            = 192.168.0.1:9312    # listen            = 9312    # listen            = /var/run/searchd.sock    ## 監(jiān)聽(tīng)端口    listen          = 9312    listen          = 9306:mysql41    ## 監(jiān)聽(tīng)日志    log         = /usr/local/sphinx/var/log/searchd.log    ## 查詢?nèi)罩?   query_log       = /usr/local/sphinx/var/log/query.log    ## 客戶端讀超時(shí)時(shí)間     read_timeout        = 5    ## 客戶端持久連接超時(shí)時(shí)間,即客戶端讀一次以后,持久連接,然后再讀一次。中間這個(gè)持久連接的時(shí)間。    client_timeout      = 300    ## 并行執(zhí)行搜索的數(shù)目    max_children        = 30    ## 進(jìn)程id文件    pid_file        = /usr/local/sphinx/var/log/searchd.pid    ## 守護(hù)進(jìn)程在內(nèi)存中為每個(gè)索引所保持并返回給客戶端的匹配數(shù)目的最大值    max_matches     = 1000    ## 無(wú)縫輪轉(zhuǎn)。防止 searchd 輪換在需要預(yù)取大量數(shù)據(jù)的索引時(shí)停止響應(yīng)    ## 當(dāng)進(jìn)行索引輪換的時(shí)候,可能需要消耗大量的時(shí)間在輪換索引上。    ## 但是啟動(dòng)了無(wú)縫輪轉(zhuǎn),就以消耗內(nèi)存為代價(jià)減少輪轉(zhuǎn)的時(shí)間    seamless_rotate     = 1    ## 索引預(yù)開(kāi)啟,是否強(qiáng)制重新打開(kāi)所有索引文件    preopen_indexes     = 1    ## 索引輪換成功之后,是否刪除以.old為擴(kuò)展名的索引拷貝    unlink_old      = 1    ## 屬性刷新周期    ## 就是使用UpdateAttributes()更新的文檔屬性每隔多少時(shí)間寫(xiě)回到磁盤中。    # attr_flush_period = 900    ## 索引字典存儲(chǔ)方式    # ondisk_dict_default   = 1    ## 用于多值屬性MVA更新的存儲(chǔ)空間的內(nèi)存共享池大小    mva_updates_pool    = 1M    ## 網(wǎng)絡(luò)通訊時(shí)允許的最大的包的大小    max_packet_size     = 8M    ## 崩潰日志文件    # crash_log_path        = /usr/local/sphinx/var/data/log/crash    ## 每次查詢?cè)试S設(shè)置的過(guò)濾器的最大個(gè)數(shù)    max_filters     = 256    ## 單個(gè)過(guò)濾器允許的值的最大個(gè)數(shù)    max_filter_values   = 4096    ## TCP監(jiān)聽(tīng)待處理隊(duì)列長(zhǎng)度    # listen_backlog        = 5    ## 每個(gè)關(guān)鍵字的讀緩沖區(qū)的大小    # read_buffer       = 256K    ## 無(wú)匹配時(shí)讀操作的大小    # read_unhinted     = 32K    ## 每次批量查詢的查詢數(shù)限制    max_batch_queries   = 32    ## 每個(gè)查詢的公共子樹(shù)文檔緩存大小    # subtree_docs_cache    = 4M    ## 每個(gè)查詢的公共子樹(shù)命中緩存大小    # subtree_hits_cache    = 8M    ## 多處理模式(MPM)。 可選項(xiàng);可用值為none、fork、prefork,以及threads。 默認(rèn)在Unix類系統(tǒng)為form,Windows系統(tǒng)為threads。    workers         = threads # for RT to work    ## 并發(fā)查詢線程數(shù)    # dist_threads      = 4    ## 二進(jìn)制日志路徑    # binlog_path       = # disable logging    # binlog_path       = /usr/local/sphinx/var/data # binlog.001 etc will be created there    ## 二進(jìn)制日志刷新    # binlog_flush      = 2    ## 二進(jìn)制日志大小限制    # binlog_max_log_size   = 256M    ## 線程堆棧    # thread_stack          = 128K    ## 關(guān)鍵字展開(kāi)限制    # expansion_limit       = 1000    ## RT索引刷新周期     # rt_flush_period       = 900    ## 查詢?nèi)罩?#26684;式    ## 可選項(xiàng),可用值為plain、sphinxql,默認(rèn)為plain。     # query_log_format      = sphinxql    ## MySQL版本設(shè)置    # mysql_version_string  = 5.0.37    ## 插件目錄    # plugin_dir            = /usr/local/sphinx/lib    ## 服務(wù)端默認(rèn)字符集    # collation_server      = utf8_general_ci    ## 服務(wù)端libc字符集    # collation_libc_locale = ru_RU.UTF-8    ## 線程服務(wù)看守    # watchdog              = 1    ## 兼容模式    # compat_sphinxql_magics    = 1}
發(fā)表評(píng)論 共有條評(píng)論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
主站蜘蛛池模板: 日本精品免费观看 | 成人三级电影网 | 中文字幕激情 | 亚洲黑人在线观看 | 91网视频| 国产成人精品免费视频大全办公室 | 亚洲国产色婷婷 | 久久亚洲精品国产一区 | 成人在线视频免费播放 | 91av资源在线 | 中文字幕在线成人 | 亚洲一级片免费观看 | 欧美视频一区二区三区在线观看 | 91午夜视频| 韩国精品视频在线观看 | 在线a毛片免费视频观看 | 欧洲精品久久 | 日本特级a一片免费观看 | 日韩欧美中文字幕视频 | 一级一级一级一级毛片 | 久久丝袜脚交足黄网站免费 | 免费一级a毛片免费观看 | 美国一级免费视频 | 911视频免费版 | 在线观看国产日韩 | 欧美大穴 | 久久国产精品区 | 他也色在线视频 | 亚洲最大的成人网 | 特一级黄色毛片 | xvideos korean| 韩国美女一区 | 欧美不卡 | av免费不卡国产观看 | 亚洲国产资源 | 亚州综合图片 | 久久国产一二三 | 美女久久| 免费欧美一级视频 | 男人的天堂色偷偷 | av在线免费观看中文字幕 |