如何统计站点中下载次数最多的文件? 从 Antezeta 学来一招,在配置文件中添加一段 ExtraSection ,类似如下:
ExtraSectionName10="Downloads (doc,rar,sql,pdf,rtf,sh,tgz,zip) - Top 10" ExtraSectionCodeFilter10="200 304" ExtraSectionCondition10="URL,(.*((\.doc)|(\.rar)|(\.sql)|(\.pdf)|(\.rtf)|(\.sh)|(\.tgz)|(\.zip)))" ExtraSectionFirstColumnTitle10="Download" ExtraSectionFirstColumnValues10="URL,(.*)" ExtraSectionFirstColumnFormat10="%s" ExtraSectionStatTypes10=HBL ExtraSectionAddAverageRow10=0 ExtraSectionAddSumRow10=1 MaxNbOfExtra10=10 MinHitExtra10=1
可以添加或减少需要匹配的文件类型。
有朋友问我 Blog 首页下方的"最多阅读的文章"如何得到的,其实也是用 Awstats 得到的数据。细节内容请参考:AWStats Enhancements and Extensions。
另外,根据 添加 egosurf 页面 的思路,又添加了在线书签的页面。不过遇到一个非常奇怪的原因。非常奇怪...
无独有偶,在后台 web 服务器的错误访问日志上也观察到很奇怪的现象,奇怪,非常非常奇怪 @*%*$$&*.....ooooooops
前一段时间就有朋友在留言中说订阅本站 RSS 后,每篇 Blog 都会显示两次。当时以为是个别现象而忽略。今天又有人说遇到这个问题:
稍加分析,只要用 FeedSky 烧录的 Feed 就有这个问题。看到 FeedSky 吕欣欣在线上,在后台检查后说我包含了两个 RSS 地址在 Feed 里面。这...不可能啊...
原来上次 FeedBurner 不能访问, Blog RSS 地址修改 的时候我把 index.xml 指向我在 FeedBurner 烧录的 Feed 地址 ,而 FeedSky 的处理机制存在问题: 不认识 http 重定向(HTTP 状态值 301、302、303、307)。认为里面有两个地址,每个都显示一次。就成了现在的样子。
前几天有人讨论"Feedsky 和抓虾zhuaxia,谁更有技术"的问题,我的感觉是 FeedSky 虽然占领了很好的资源,但技术上可不怎么样,一直以来,FeedSky 的解析速度、UI 都很糟糕,最近速度倒是有所改善,可是又发现这么一个不该发生的失误。这也是前一段时间 FeedBurner 出问题的时候我没有切换到 FeedSky 的一个主要原因。
提醒一下本 Blog 的用户,请统一使用 http://www.dbanotes.net/index.xml 订阅吧。
--EOF--
美国商务部Census Bureau于8月17日宣布,经季节变化以及假日和交易日差异的调整后(但不包括价格变化):
美国整体零售额和电子商务零售额,2005Q4-2006Q1,单位:百万美元
(相对今年5月发布的2006年Q1的数据,该季的数据有修正) 来源:美国商务部Census Bureau |
延伸:1999Q4-2005Q4美国电子商务零售的季度数据。
(与六年多前相比,电子商务零售额的年增长,从翻番下降到了这两年的约25%,增幅现维持在整体零售的3倍左右,因此电子商务零售占社会整体零售的比例,从2005Q2的2.3%,以每季增加0.1%的速度提高到2006Q2的2.7%,虽然一直在提高,但速度相当缓和。)
下载:mod_perl 目前最新版本是1.29
wget http://perl.apache.org/dist/mod_perl-1.0-current.tar.gz
解包后,
%perl Makefile.PL \
> USE_APXS=1 \
> WITH_APXS=/home/apache/bin/apxs \
> EVERYTHING=1
%make
#make install
mod_perl的作用和eAccelerator差不多,面向perl应用的预编译。通过phpinfo可以看到Apache Version
Apache/1.3.37 (Unix) mod_perl/1.29 PHP/4.4.2
2006-8-15
2006-8-14
2006-8-13
2006-8-12
2006-8-11
2006-8-10
2006-8-9
2006-8-5