`
sg552
  • 浏览: 618884 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
47437293-94b9-3b04-9152-8971c7580049
白手起家学习使用Flex
浏览量:18670
社区版块
存档分类
最新评论
文章列表
手头上的一个项目,是以另外一个系统的webservice做为底层基础。 里面大约有50的操作,最终都要调用这些 web service。 大约有200个test case, 跑完一边居然要15~ 30分钟。因为调用一次WS,大约25秒左右。而且随着远程webservice 服务器的性能问题,这个时间还在增加。 程序员感觉很麻烦。因为调试的时候,如果远程 Webservice出了问题,本地也运行不了。 而且从过去的经验来看,这个webservice 不是很稳定。大约有3~ 5% 的出错率(网络原因造成)。很多时候需要跑很多次,才会明确结果。 所以这个项目越到后来,程序员就越不乐意运行单元 ...
1. 最简单的用法 (GET 80端口):   $ curl www.site.com    1.2 如果希望待上参数,记得用引号把URL 括起来:   $ curl 'www.somesite.com?param1=foo&param2=bar'   2. 使用 POST 请求: $ curl www.site.com -X POST -d "say=hi"   使用 header, 并且打印出全程所耗费时间: $ curl https://site-portal/api/request_token --header "Apike ...
之前使用delayed_job , 发现从来不并发。都是顺序执行。   今天才发现,必须要启动多个workers,才行。   之前是由于只启动了一个worker...所以。。。。   $ RAILS_ENV=production script/delayed_job -n 8 start   这样就可以启动8 个进程了。  ^_^
http://stackoverflow.com/q/111857/445908   The best way to learn python (or any programming language) is to pick something you want to do and start doing it in the language you want to learn. Pick anything that interests you and is slightly more complex then a simple Hello World. IRC bots are a go ...
1. 用全文检索进行搜索 2. 用的是JAVA 3. 信息量很大,会不定时的进行各个城市服务器之间的信息汇总。 4. 在同步时,信息发布的时间不是特别精确。 估计只精确到分,造成了多个服务器的数据合并之后,顺序跟原有顺序不相同的情况。 每次同步,会有 2K 个打算顺序的数据产生。 其中1K2是原有的重复数据, 0.8K是 新数据。 07-02 846 newed, 484 duplicated 5. 由于使用了JAVA, 那么就会用到LUCENE, SOLR等系统。 性能良好,支持近似于实时的内容检索 (real time search) ,但是依赖硬件,而且修改代码特别麻烦。估计平 ...
1. 查看当前的LINUX 的名称命令  引用[kcv478@mgt.s3lab.mot.com ~]$ cat /etc/*-release CentOS release 5.3 (Final) 以及 uname -a 2. 查看哪个包已经被安装了 $ yum list installed | grep <package_name> $ rpm -qa | grep <name> 3. 安装MYSQL时,如果出现很奇怪的 obsolete package 问题,需要安装一个特殊的包: $ sudo yum install MySQL-client-perc ...
Analyzer: The index analysis module acts as a configurable registry of Analyzers that can be used in order to both break indexed (analyzed) fields when a document is indexed and process query strings. It maps to the Lucene Analyzer. index analysis module 就是一个可以配置的registry(登记处),在这里有很多的Analyzer. 每个A ...
开始学习使用 elasticsearch, 把步骤记录在这里: 最大的特点: 1. 数据库的 database, 就是  index 2. 数据库的 table,  就是 tag 3. 不要使用browser, 使用curl来进行客户端操作.  否则会出现 java heap ooxx... curl:  -X 后面跟 RESTful :  GET, POST ... -d 后面跟数据。 (d = data to send) 1. create:  指定 ID 来建立新记录。 (貌似PUT, POST都可以) $ curl -XPOST localhost:9200/films/md/ ...
备份: mongodump --db <your_db_name> --collection <collection_name> -o - > db/<target_file>.bson 这里记得使用 -o -, 才是正确的把数据导出。 还原: mongorestore --drop -d <db_name> -c <collection_name> db/<target_file>.bson 增加索引: db.items.ensureIndex({original_url:1})
(tire 调试的关键是: 1. 会一些基本的elasticsearch 操作, curl -XDELETE... 2. 看log 3. 看 test 目录。 这个是最好的文档。 ) tire 是 elasticsearch的 RUBY工具 (大部分是RUBY, 而不是RAILS),下面是几个基本用法的笔记: 比较全面的文档 见:  (example 文件夹)http://karmi.github.com/tire/  如果你在进行RAILS开发,建议你从 tire自带的 RAILS EXAMPLE 看起。官方文档还是侧重于非RAILS项目的。 1. config/initial ...
http://stackoverflow.com/a/10213568/445908 There are many comparisons between Apache Solr and ElasticSearch available, so I'll reference those I found most useful myself, i.e. covering the most important aspects: 大家对这两者的比较工作做的很多,我只引用我看来最有价值的文章: Bob Yoplait already linked kimchy's answer to Elastic ...
前几天的调研( Rails3下的 full text search (全文本搜索, 全文匹配?) ), 我发现了两个不错的候选: 1. lucene  (solr, elasticsearch 都是基于它) 2. sphinx 两者都有很不错的口碑。所以今天更加进一步的调查。把看到的有价值的文 ...
mongoid2 站点:http://two.mongoid.org/ 关于mongoid 查询的返回即时结果:  用 to_a 就可以了。  相当于ActiveRecord3 中的 .all 方法。 Item.limit(3).to_a see: http://stackoverflow.com/a/6607689/445908
最近遇到了一个问题,大数据量下的全文搜索,比较费时。 例如: 100W的数据下,想要搜索,使用where的话,有的时候耗时 20+ 秒。 无法忍受。 同时,100W 的数据,占用了至少1G的空间。 光是全盘扫描的话,也无法在1秒内完成。 所以,还得求助于索引(index) 记得在JAVA项目中,lucene 是个非常好的工具,貌似现在也是。不知道RAILS的世界中如何? 理想的工具应该是: 1. 有个针对中文的分词文件(现成的),就好像LUCENE的那样 2. 使用这个分词文件,对数据库的数据进行索引的生成 3. 每次查询时,先从索引中查,然后再根据索引的结果,找到数据库的记录 4. 显 ...
貌似不能用  _id : /1234/  查询 只能用: _id: ObjectId()这个方法 db.your_collection_name.find({_id : ObjectId("4fceb476d09cbc0d0f000001")}, {_id: 1 ,name:1}) 参考 http://realguess.net/node/201
Global site tag (gtag.js) - Google Analytics