source:數(shù)據(jù)源,數(shù)據(jù)是從什么地方來(lái)的。 index:索引,當(dāng)有數(shù)據(jù)源之后,從數(shù)據(jù)源處構(gòu)建索引。索引實(shí)際上就是相當(dāng)于一個(gè)字典檢索。有了整本字典內(nèi)容以后,才會(huì)有字典檢索。searchd:提供搜索查詢服務(wù)。它一般是以deamon的形式運(yùn)行在后臺(tái)的。indexer:構(gòu)建索引的服務(wù)。當(dāng)要重新構(gòu)建索引的時(shí)候,就是調(diào)用indexer這個(gè)命令。attr:屬性,屬性是存在索引中的,它不進(jìn)行全文索引,但是可以用于過(guò)濾和排序。
配置文件
## 數(shù)據(jù)源src1source src1{ ## 說(shuō)明數(shù)據(jù)源的類型。數(shù)據(jù)源的類型可以是:MySQL,pgsql,mssql,xmlpipe,odbc,python type = mysql ## 下面是sql數(shù)據(jù)庫(kù)特有的端口,用戶名,密碼,數(shù)據(jù)庫(kù)名等。 sql_host = localhost sql_user = test sql_pass = sql_db = test sql_port = 3306 ## 如果是使用unix sock連接可以使用這個(gè)。 # sql_sock = /tmp/mysql.sock ## indexer和mysql之間的交互,需要考慮到效率和安全性。 ## 比如考慮到效率,他們兩者之間的交互需要使用壓縮協(xié)議;考慮到安全,他們兩者之間的傳輸需要使用ssl ## 那么這個(gè)參數(shù)就代表這個(gè)意思,0/32/2048/32768 無(wú)/使用壓縮協(xié)議/握手后切換到ssl/Mysql 4.1版本身份認(rèn)證。 # mysql_connect_flags = 32 ## 當(dāng)mysql_connect_flags設(shè)置為2048(ssl)的時(shí)候,下面幾個(gè)就代表ssl連接所需要使用的幾個(gè)參數(shù)。 # mysql_ssl_cert = /etc/ssl/client-cert.pem # mysql_ssl_key = /etc/ssl/client-key.pem # mysql_ssl_ca = /etc/ssl/cacert.pem ## odbc的dsn串 # odbc_dsn = DBQ=C:/data;DefaultDir=C:/data;Driver={Microsoft Text Driver (*.txt; *.csv)}; ## sql某一列的緩沖大小,一般是針對(duì)字符串來(lái)說(shuō)的。 ## 為什么要有這么一種緩沖呢? ## 有的字符串,雖然長(zhǎng)度很長(zhǎng),但是實(shí)際上并沒(méi)有使用那么長(zhǎng)的字符,所以在Sphinx并不會(huì)收錄所有的字符,而是給每個(gè)屬性一個(gè)緩存作為長(zhǎng)度限制。 ## 默認(rèn)情況下非字符類型的屬性是1KB,字符類型的屬性是1MB。 ## 而如果想要配置這個(gè)buffer的話,就可以在這里進(jìn)行配置了。 # sql_column_buffers = content=12M, comments=1M ## indexer的sql執(zhí)行前需要執(zhí)行的操作。 # sql_query_PRe = SET NAMES utf8 # sql_query_pre = SET session query_cache_type=OFF ## indexer的sql執(zhí)行語(yǔ)句 sql_query = / SELECT id, group_id, UNIX_TIMESTAMP(date_added) AS date_added, title, content / FROM documents ## 有的時(shí)候有多個(gè)表,我們想要查詢的字段在其他表中。這個(gè)時(shí)候就需要對(duì)sql_query進(jìn)行join操作。 ## 而這個(gè)join操作可能非常慢,導(dǎo)致建立索引的時(shí)候特別慢,那么這個(gè)時(shí)候,就可以考慮在sphinx端進(jìn)行join操作了。 ## sql_joined_field是增加一個(gè)字段,這個(gè)字段是從其他表查詢中查詢出來(lái)的。 ## 這里封號(hào)后面的查詢語(yǔ)句是有要求的,如果是query,則返回id和查詢字段,如果是payload-query,則返回id,查詢字段和權(quán)重。 ## 并且這里的后一個(gè)查詢需要按照id進(jìn)行升序排列。 # sql_joined_field = tags from query; SELECT docid, CONCAT('tag',tagid) FROM tags ORDER BY docid ASC # sql_joined_field = wtags from payload-query; SELECT docid, tag, tagweight FROM tags ORDER BY docid ASC ## 外部文件字段,意思就是一個(gè)表中,有一個(gè)字段存的是外部文件地址,但是實(shí)際的字段內(nèi)容在文件中。比如這個(gè)字段叫做content_file_path。 ## 當(dāng)indexer建立索引的時(shí)候,查到這個(gè)字段,就讀取這個(gè)文件地址,然后加載,并進(jìn)行分詞和索引建立等操作。 # sql_file_field = content_file_path ## 當(dāng)數(shù)據(jù)源數(shù)據(jù)太大的時(shí)候,一個(gè)sql語(yǔ)句查詢下來(lái)往往很有可能鎖表等操作。 ## 那么我么就可以使用多次查詢,那么這個(gè)多次查詢就需要有個(gè)范圍和步長(zhǎng),sql_query_range和sql_range_step就是做這個(gè)使用的。 ## 獲取最大和最小的id,然后根據(jù)步長(zhǎng)來(lái)獲取數(shù)據(jù)。比如下面的例子,如果有4500條數(shù)據(jù),這個(gè)表建立索引的時(shí)候就會(huì)進(jìn)行5次sql查詢。 ## 而5次sql查詢每次的間隔時(shí)間是使用sql_ranged_rhrottle來(lái)進(jìn)行設(shè)置的。單位是毫秒。 # sql_query_range = SELECT MIN(id),MAX(id) FROM documents # sql_range_step = 1000 # sql_ranged_throttle = 0 ## 下面都是些不同屬性的數(shù)據(jù)了 ## 先要了解屬性的概念:屬性是存在索引中的,它不進(jìn)行全文索引,但是可以用于過(guò)濾(filter)和排序(order)。 ## uint無(wú)符號(hào)整型屬性 sql_attr_uint = group_id ## bool屬性 # sql_attr_bool = is_deleted ## 長(zhǎng)整型屬性 # sql_attr_bigint = my_bigint_id ## 時(shí)間戳屬性,經(jīng)常被用于做排序 sql_attr_timestamp = date_added ## 字符串排序?qū)傩浴R话阄覀儼凑兆址判虻脑挘覀儠?huì)將這個(gè)字符串存下來(lái)進(jìn)入到索引中,然后在查詢的時(shí)候比較索引中得字符大小進(jìn)行排序。 ## 但是這個(gè)時(shí)候索引就會(huì)很大,于是我們就想到了一個(gè)方法,我們?cè)诮⑺饕臅r(shí)候,先將字符串值從數(shù)據(jù)庫(kù)中取出,暫存,排序。 ## 然后給排序后的數(shù)組分配一個(gè)序號(hào),然后在建立索引的時(shí)候,就將這個(gè)序號(hào)存入到索引中去。這樣在查詢的時(shí)候也就能完成字符串排序的操作。 ## 這,就是這個(gè)字段的意義。 # sql_attr_str2ordinal = author_name ## 浮點(diǎn)數(shù)屬性,經(jīng)常在查詢地理經(jīng)緯度的時(shí)候會(huì)用到。 # sql_attr_float = lat_radians # sql_attr_float = long_radians ## 多值屬性(MVA) ## 試想一下,有一個(gè)文章系統(tǒng),每篇文章都有多個(gè)標(biāo)簽,這個(gè)文章就叫做多值屬性。 ## 我要對(duì)某個(gè)標(biāo)簽進(jìn)行查詢過(guò)濾,那么在建立查詢的時(shí)候就應(yīng)該把這個(gè)標(biāo)簽的值放入到索引中。 ## 這個(gè)字段,sql_attr_multi就是用來(lái)做這個(gè)事情的。 # sql_attr_multi = uint tag from query; SELECT docid, tagid FROM tags # sql_attr_multi = uint tag from ranged-query; / # SELECT docid, tagid FROM tags WHERE id>=$start AND id<=$end; / # SELECT MIN(docid), MAX(docid) FROM tags ## 字符串屬性。 # sql_attr_string = stitle ## 文檔詞匯數(shù)記錄屬性。比如下面就是在索引建立的時(shí)候增加一個(gè)詞匯數(shù)的字段 # sql_attr_str2Wordcount = stitle ## 字符串字段,可全文搜索,可返回原始文本信息。 # sql_field_string = author ## 文檔詞匯數(shù)記錄字段,可全文搜索,可返回原始信息 # sql_field_str2wordcount = title ## 取后查詢,在sql_query執(zhí)行后立即操作。 ## 它和sql_query_post_index的區(qū)別就是執(zhí)行時(shí)間不同 ## sql_query_post是在sql_query執(zhí)行后執(zhí)行,而sql_query_post_index是在索引建立完成后才執(zhí)行。 ## 所以如果要記錄最后索引執(zhí)行時(shí)間,那么應(yīng)該在sql_query_post_index中執(zhí)行。 ##***** 在做增量索引的時(shí)候用sql_query_post標(biāo)記最后一條數(shù)據(jù),因?yàn)閟ql_query_post_index會(huì)在query查完后,有個(gè)創(chuàng)建索引的過(guò)程,這就會(huì)造成一定的延時(shí)。 # sql_query_post = ## 參考sql_query_post的說(shuō)明。 # sql_query_post_index = REPLACE INTO counters ( id, val ) / # VALUES ( 'max_indexed_id', $maxid ) ## 比如有兩個(gè)索引,一個(gè)索引比較舊,一個(gè)索引比較新,那么舊索引中就會(huì)有數(shù)據(jù)是舊的。 ## 當(dāng)我要對(duì)兩個(gè)索引進(jìn)行搜索的時(shí)候,哪些數(shù)據(jù)要按照新的索引來(lái)進(jìn)行查詢呢。 ## 這個(gè)時(shí)候就使用到了這個(gè)字段了。 ## 這里的例子(http://www.coreseek.cn/docs/coreseek_4.1-sphinx_2.0.1-beta.html#conf-sql-query-killlist)給的非常清晰了。(經(jīng)測(cè)試沒(méi)發(fā)現(xiàn)有什么不同,不知道是bug還是使用方式不對(duì)) # sql_query_killlist = SELECT id FROM documents WHERE edited>=@last_reindex ## 下面幾個(gè)壓縮解壓的配置都是為了一個(gè)目的:讓索引重建的時(shí)候不要影響數(shù)據(jù)庫(kù)的性能表現(xiàn)。 ## SQL數(shù)據(jù)源解壓字段設(shè)置 # unpack_zlib = zlib_column ## MySQL數(shù)據(jù)源解壓字段設(shè)置 # unpack_mysqlcompress = compressed_column # unpack_mysqlcompress = compressed_column_2 ## MySQL數(shù)據(jù)源解壓緩沖區(qū)設(shè)置 # unpack_mysqlcompress_maxsize = 16M}## sphinx的source是有繼承這么一種屬性的,意思就是除了父source之外,這個(gè)source還有這個(gè)特性,類似于java的繼承與多態(tài)。source src1throttled : src1{ sql_ranged_throttle = 100}## 索引test1index test1{ ## 索引類型,包括有plain,distributed和rt。分別是普通索引/分布式索引/實(shí)時(shí)索引。默認(rèn)是plain。 # type = plain ## 索引數(shù)據(jù)源 source = src1 ## 索引文件存放路徑 path = /usr/local/sphinx/var/data/test1 ## 文檔信息的存儲(chǔ)模式,包括有none,extern,inline。默認(rèn)是extern。 ## docinfo指的就是數(shù)據(jù)的所有屬性(field)構(gòu)成的一個(gè)集合。 ## 首先文檔id是存儲(chǔ)在一個(gè)文件中的(spa) ## 當(dāng)使用inline的時(shí)候,文檔的屬性和文件的id都是存放在spa中的,所以進(jìn)行查詢過(guò)濾的時(shí)候,不需要進(jìn)行額外操作。 ## 當(dāng)使用extern的時(shí)候,文檔的屬性是存放在另外一個(gè)文件(spd)中的,但是當(dāng)啟動(dòng)searchd的時(shí)候,會(huì)把這個(gè)文件加載到內(nèi)存中。 ## extern就意味著每次做查詢過(guò)濾的時(shí)候,除了查找文檔id之外,還需要去內(nèi)存中根據(jù)屬性進(jìn)行過(guò)濾。 ## 但是即使這樣,extern由于文件大小小,效率也不低。所以不是有特殊要求,一般都是使用extern docinfo = extern ## 緩沖內(nèi)存鎖定。 ## searchd會(huì)講spa和spi預(yù)讀取到內(nèi)存中。但是如果這部分內(nèi)存數(shù)據(jù)長(zhǎng)時(shí)間沒(méi)有訪問(wèn),則它會(huì)被交換到磁盤上。 ## 設(shè)置了mlock就不會(huì)出現(xiàn)這個(gè)問(wèn)題,這部分?jǐn)?shù)據(jù)會(huì)一直存放在內(nèi)存中的。 mlock = 0 ## 詞形處理器 ## 詞形處理是什么意思呢?比如在英語(yǔ)中,dogs是dog的復(fù)數(shù),所以dog是dogs的詞干,這兩個(gè)實(shí)際上是同一個(gè)詞。 ## 所以英語(yǔ)的詞形處理器會(huì)講dogs當(dāng)做dog來(lái)進(jìn)行處理。 morphology = none ## 詞形處理有的時(shí)候會(huì)有問(wèn)題,比如將gps處理成gp,這個(gè)設(shè)置可以允許根據(jù)詞的長(zhǎng)度來(lái)決定是否要使用詞形處理器。 # min_stemming_len = 1 ## 詞形處理后是否還要檢索原詞? # index_exact_words = 1 ## 停止詞,停止詞是不被索引的詞。 # stopwords = /usr/local/sphinx/var/data/stopwords.txt ## 自定義詞形字典 # wordforms = /usr/local/sphinx/var/data/wordforms.txt ## 詞匯特殊處理。 ## 有的一些特殊詞我們希望把它當(dāng)成另外一個(gè)詞來(lái)處理。比如,c++ => cplusplus來(lái)處理。 # exceptions = /usr/local/sphinx/var/data/exceptions.txt ## 最小索引詞長(zhǎng)度,小于這個(gè)長(zhǎng)度的詞不會(huì)被索引。 min_word_len = 1 ## 字符集編碼類型,可以為sbcs,utf-8。對(duì)于Coreseek,還可以有zh_cn.utf-8,zh_ch.gbk,zh_ch.big5 charset_type = sbcs ## 字符表和大小寫(xiě)轉(zhuǎn)換規(guī)則。對(duì)于Coreseek,這個(gè)字段無(wú)效。 # 'sbcs' default value is # charset_table = 0..9, A..Z->a..z, _, a..z, U+A8->U+B8, U+B8, U+C0..U+DF->U+E0..U+FF, U+E0..U+FF # # 'utf-8' default value is # charset_table = 0..9, A..Z->a..z, _, a..z, U+410..U+42F->U+430..U+44F, U+430..U+44F ## 忽略字符表。在忽略字符表中的前后詞會(huì)被連起來(lái)當(dāng)做一個(gè)單獨(dú)關(guān)鍵詞處理。 # ignore_chars = U+00AD ## 是否啟用通配符,默認(rèn)為0,不啟用 # enable_star = 1 ## min_prefix_len,min_infix_len,prefix_fields,infix_fields都是在enable_star開(kāi)啟的時(shí)候才有效果。 ## 最小前綴索引長(zhǎng)度 ## 為什么要有這個(gè)配置項(xiàng)呢? ## 首先這個(gè)是當(dāng)啟用通配符配置啟用的前提下說(shuō)的,前綴索引使得一個(gè)關(guān)鍵詞產(chǎn)生了多個(gè)索引項(xiàng),導(dǎo)致索引文件體積和搜索時(shí)間增加巨大。 ## 那么我們就有必要限制下前綴索引的前綴長(zhǎng)度,比如example,當(dāng)前綴索引長(zhǎng)度設(shè)置為5的時(shí)候,它只會(huì)分解為exampl,example了。 # min_prefix_len = 0 ## 最小索引中綴長(zhǎng)度。理解同上。 # min_infix_len = 0 ## 前綴索引和中綴索引字段列表。并不是所有的字段都需要進(jìn)行前綴和中綴索引。 # prefix_fields = filename # infix_fields = url, domain ## 詞匯展開(kāi) ## 是否盡可能展開(kāi)關(guān)鍵字的精確格式或者型號(hào)形式 # expand_keywords = 1 ## N-Gram索引的分詞技術(shù) ## N-Gram是指不按照詞典,而是按照字長(zhǎng)來(lái)分詞,這個(gè)主要是針對(duì)非英文體系的一些語(yǔ)言來(lái)做的(中文、韓文、日文) ## 對(duì)coreseek來(lái)說(shuō),這兩個(gè)配置項(xiàng)可以忽略。 # ngram_len = 1 # ngram_chars = U+3000..U+2FA1F ## 詞組邊界符列表和步長(zhǎng) ## 哪些字符被看做分隔不同詞組的邊界。 # phrase_boundary = ., ?, !, U+2026 # horizontal ellipsis # phrase_boundary_step = 100 ## 混合字符列表 # blend_chars = +, &, U+23 # blend_mode = trim_tail, skip_pure ## html標(biāo)記清理,是否從輸出全文數(shù)據(jù)中去除HTML標(biāo)記。 html_strip = 0 ## HTML標(biāo)記屬性索引設(shè)置。 # html_index_attrs = img=alt,title; a=title; ## 需要清理的html元素 # html_remove_elements = style, script ## searchd是預(yù)先打開(kāi)全部索引還是每次查詢?cè)俅蜷_(kāi)索引。 # preopen = 1 ## 字典文件是保持在磁盤上還是將他預(yù)先緩沖在內(nèi)存中。 # ondisk_dict = 1 ## 由于在索引建立的時(shí)候,需要建立臨時(shí)文件和和副本,還有舊的索引 ## 這個(gè)時(shí)候磁盤使用量會(huì)暴增,于是有個(gè)方法是臨時(shí)文件重復(fù)利用 ## 這個(gè)配置會(huì)極大減少建立索引時(shí)候的磁盤壓力,代價(jià)是索引建立速度變慢。 # inplace_enable = 1 # inplace_hit_gap = 0 # preallocated hitlist gap size # inplace_docinfo_gap = 0 # preallocated docinfo gap size # inplace_reloc_factor = 0.1 # relocation buffer size within arena # inplace_write_factor = 0.1 # write buffer size within arena ## 在經(jīng)過(guò)過(guò)短的位置后增加位置值 # overshort_step = 1 ## 在經(jīng)過(guò) 停用詞 處后增加位置值 # stopword_step = 1 ## 位置忽略詞匯列表 # hitless_words = all # hitless_words = hitless.txt ## 是否檢測(cè)并索引句子和段落邊界 # index_sp = 1 ## 字段內(nèi)需要索引的HTML/XML區(qū)域的標(biāo)簽列表 # index_zones = title, h*, th}index test1stemmed : test1{ path = /usr/local/sphinx/var/data/test1 morphology = stem_en}index dist1{ type = distributed local = test1 local = test1stemmed ## 分布式索引(distributed index)中的遠(yuǎn)程代理和索引聲明 agent = localhost:9313:remote1 agent = localhost:9314:remote2,remote3 # agent = /var/run/searchd.sock:remote4 ## 分布式索引( distributed index)中聲明遠(yuǎn)程黑洞代理 # agent_blackhole = testbox:9312:testindex1,testindex2 ## 遠(yuǎn)程代理的連接超時(shí)時(shí)間 agent_connect_timeout = 1000 ## 遠(yuǎn)程查詢超時(shí)時(shí)間 agent_query_timeout = 3000}index rt{ type = rt path = /usr/local/sphinx/var/data/rt ## RT索引內(nèi)存限制 # rt_mem_limit = 512M ## 全文字段定義 rt_field = title rt_field = content ## 無(wú)符號(hào)整數(shù)屬性定義 rt_attr_uint = gid ## 各種屬性定義 # rt_attr_bigint = guid # rt_attr_float = gpa # rt_attr_timestamp = ts_added # rt_attr_string = author}indexer{ ## 建立索引的時(shí)候,索引內(nèi)存限制 mem_limit = 32M ## 每秒最大I/O操作次數(shù),用于限制I/O操作 # max_iops = 40 ## 最大允許的I/O操作大小,以字節(jié)為單位,用于I/O節(jié)流 # max_iosize = 1048576 ## 對(duì)于XMLLpipe2數(shù)據(jù)源允許的最大的字段大小,以字節(jié)為單位 # max_xmlpipe2_field = 4M ## 寫(xiě)緩沖區(qū)的大小,單位是字節(jié) # write_buffer = 1M ## 文件字段可用的最大緩沖區(qū)大小,字節(jié)為單位 # max_file_field_buffer = 32M}## 搜索服務(wù)配置searchd{ # listen = 127.0.0.1 # listen = 192.168.0.1:9312 # listen = 9312 # listen = /var/run/searchd.sock ## 監(jiān)聽(tīng)端口 listen = 9312 listen = 9306:mysql41 ## 監(jiān)聽(tīng)日志 log = /usr/local/sphinx/var/log/searchd.log ## 查詢?nèi)罩? query_log = /usr/local/sphinx/var/log/query.log ## 客戶端讀超時(shí)時(shí)間 read_timeout = 5 ## 客戶端持久連接超時(shí)時(shí)間,即客戶端讀一次以后,持久連接,然后再讀一次。中間這個(gè)持久連接的時(shí)間。 client_timeout = 300 ## 并行執(zhí)行搜索的數(shù)目 max_children = 30 ## 進(jìn)程id文件 pid_file = /usr/local/sphinx/var/log/searchd.pid ## 守護(hù)進(jìn)程在內(nèi)存中為每個(gè)索引所保持并返回給客戶端的匹配數(shù)目的最大值 max_matches = 1000 ## 無(wú)縫輪轉(zhuǎn)。防止 searchd 輪換在需要預(yù)取大量數(shù)據(jù)的索引時(shí)停止響應(yīng) ## 當(dāng)進(jìn)行索引輪換的時(shí)候,可能需要消耗大量的時(shí)間在輪換索引上。 ## 但是啟動(dòng)了無(wú)縫輪轉(zhuǎn),就以消耗內(nèi)存為代價(jià)減少輪轉(zhuǎn)的時(shí)間 seamless_rotate = 1 ## 索引預(yù)開(kāi)啟,是否強(qiáng)制重新打開(kāi)所有索引文件 preopen_indexes = 1 ## 索引輪換成功之后,是否刪除以.old為擴(kuò)展名的索引拷貝 unlink_old = 1 ## 屬性刷新周期 ## 就是使用UpdateAttributes()更新的文檔屬性每隔多少時(shí)間寫(xiě)回到磁盤中。 # attr_flush_period = 900 ## 索引字典存儲(chǔ)方式 # ondisk_dict_default = 1 ## 用于多值屬性MVA更新的存儲(chǔ)空間的內(nèi)存共享池大小 mva_updates_pool = 1M ## 網(wǎng)絡(luò)通訊時(shí)允許的最大的包的大小 max_packet_size = 8M ## 崩潰日志文件 # crash_log_path = /usr/local/sphinx/var/data/log/crash ## 每次查詢?cè)试S設(shè)置的過(guò)濾器的最大個(gè)數(shù) max_filters = 256 ## 單個(gè)過(guò)濾器允許的值的最大個(gè)數(shù) max_filter_values = 4096 ## TCP監(jiān)聽(tīng)待處理隊(duì)列長(zhǎng)度 # listen_backlog = 5 ## 每個(gè)關(guān)鍵字的讀緩沖區(qū)的大小 # read_buffer = 256K ## 無(wú)匹配時(shí)讀操作的大小 # read_unhinted = 32K ## 每次批量查詢的查詢數(shù)限制 max_batch_queries = 32 ## 每個(gè)查詢的公共子樹(shù)文檔緩存大小 # subtree_docs_cache = 4M ## 每個(gè)查詢的公共子樹(shù)命中緩存大小 # subtree_hits_cache = 8M ## 多處理模式(MPM)。 可選項(xiàng);可用值為none、fork、prefork,以及threads。 默認(rèn)在Unix類系統(tǒng)為form,Windows系統(tǒng)為threads。 workers = threads # for RT to work ## 并發(fā)查詢線程數(shù) # dist_threads = 4 ## 二進(jìn)制日志路徑 # binlog_path = # disable logging # binlog_path = /usr/local/sphinx/var/data # binlog.001 etc will be created there ## 二進(jìn)制日志刷新 # binlog_flush = 2 ## 二進(jìn)制日志大小限制 # binlog_max_log_size = 256M ## 線程堆棧 # thread_stack = 128K ## 關(guān)鍵字展開(kāi)限制 # expansion_limit = 1000 ## RT索引刷新周期 # rt_flush_period = 900 ## 查詢?nèi)罩?#26684;式 ## 可選項(xiàng),可用值為plain、sphinxql,默認(rèn)為plain。 # query_log_format = sphinxql ## MySQL版本設(shè)置 # mysql_version_string = 5.0.37 ## 插件目錄 # plugin_dir = /usr/local/sphinx/lib ## 服務(wù)端默認(rèn)字符集 # collation_server = utf8_general_ci ## 服務(wù)端libc字符集 # collation_libc_locale = ru_RU.UTF-8 ## 線程服務(wù)看守 # watchdog = 1 ## 兼容模式 # compat_sphinxql_magics = 1}
新聞熱點(diǎn)
疑難解答
圖片精選