网站建设资讯

NEWS

网站建设资讯

php大数据查询系统源码 php数据统计源码

PHP 怎么显示数据库中的数据 求源代码

读数据库,以表格输出的示例代码:

让客户满意是我们工作的目标,不断超越客户的期望值来自于我们对这个行业的热爱。我们立志把好的技术通过有效、简单的方式提供给客户,将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,公司提供的服务项目有:空间域名、网页空间、营销软件、网站建设、罗山网站维护、网站推广。

?php

header('Content-type:text/html;charset=utf-8');

$db = new mysqli('localhost','root','root','books');

$rows = $db-query('SELECT * FROM customers');

echo 'table border="1"trtd姓名/tdtd年龄/td/tr';

while($row = $rows-fetch_assoc()){

echo 'trtd'.$row['name'].'/td';

echo 'td'.$row['address'].'/td/tr';

}

?

帮我推荐一款PHP源码

严格说来您的主机参数有点老了。要找到您需要的恐怕比较麻烦,难点在于:

目前Apache版本都是2.0以上

目前php版本都是php 5的

目前的php源码通常都是和mysql配套的,极少使用SQL Lite。

建议您去搜一个php+access的,或者额外购买数据库。

我手上没有现成的,要的话也只有临时写。

php 源代码

推荐easyphp(如果你用的是windows的话),直接把你的php文件拖到easyphp下的www文件夹下就ok了(如果需要可能会设置下数据库配置文件之类的)

神奇的网友,你有php+ MySQL网站数据库搜索的源代码吗?在页面搜索栏里敲进几个字,然后数据库

用sql语句查询数据库,

ms sql server

1、查询所有表

select [id], [name] from [sysobjects] where [type] = 'u' order by [name]

2、查询所有数据库

3、select [name] from [sysdatabases] order by [name]

查询表中字段

select [name] from [syscolumns] where [name] = 'tableXXX'order by [colid]

oracle

1、查找表的所有索引(包括索引名,类型,构成列):

select t.*,i.index_type from user_ind_columns t,user_indexes i where t.index_name = i.index_name and t.table_name = i.table_name and t.table_name = 要查询的表

2、查找表的主键(包括名称,构成列):

select cu.* from user_cons_columns cu, user_constraints au where cu.constraint_name = au.constraint_name and au.constraint_type = 'P' and au.table_name = 要查询的表

3、查找表的唯一性约束(包括名称,构成列):

select column_name from user_cons_columns cu, user_constraints au where cu.constraint_name = au.constraint_name and au.constraint_type = 'U' and au.table_name = 要查询的表

4、查找表的外键(包括名称,引用表的表名和对应的键名,下面是分成多步查询):

select * from user_constraints c where c.constraint_type = 'R' and c.table_name = 要查询的表

查询外键约束的列名:

select * from user_cons_columns cl where cl.constraint_name = 外键名称

查询引用表的键的列名:

select * from user_cons_columns cl where cl.constraint_name = 外键引用表的键名

5、查询表的所有列及其属性

select t.*,c.COMMENTS from user_tab_columns t,user_col_comments c where t.table_name = c.table_name and t.column_name = c.column_name and t.table_name = 要查询的表

6、查询所有表

select* from tabs

如何用Solr搭建大数据查询平台

0×00 开头照例扯淡

自从各种脱裤门事件开始层出不穷,在下就学乖了,各个地方的密码全都改成不一样的,重要帐号的密码定期更换,生怕被人社出祖宗十八代的我,甚至开始用起了假名字,我给自己起一新网名”兴才”,这个看起来还不错的名字,其实是我们家乡骂人土话,意思是脑残人士…. -_-|||额好吧,反正是假的,不要在意这些细节。

这只是名,至于姓氏么,每个帐号的注册资料那里,照着百家姓上赵钱孙李周吴郑王的依次往下排,什么张兴才、李兴才、王兴才……于是也不知道我这样”兴才”了多久,终于有一天,我接到一个陌生电话:您好,请问是马兴才先生吗?

好么,该来的终于还是来了,于是按名索骥,得知某某网站我用了这个名字,然后通过各种途径找,果然,那破站被脱裤子了。

果断Down了那个裤子,然后就一发不可收拾,走上了收藏裤子的不归路,直到有一天,我发现收藏已经非常丰富了,粗略估计得好几十亿条数据,拍脑袋一想,这不能光收藏啊,我也搭个社工库用吧……

0×01 介绍

社工库怎么搭呢,这种海量数据的东西,并不是简单的用mysql建个库,然后做个php查询select * from sgk where username like ‘%xxxxx%’这样就能完事的,也不是某些幼稚骚年想的随便找个4g内存,amd双核的破电脑就可以带起来的,上面这样的语句和系统配置,真要用于社工库查询,查一条记录恐怕得半小时。好在这个问题早就被一种叫做全文搜索引擎的东西解决了,更好的消息是,全文搜索引擎大部分都是开源的,不需要花钱。

目前网上已经搭建好的社工库,大部分是mysql+coreseek+php架构,coreseek基于sphinx,是一款优秀的全文搜索引擎,但缺点是比较轻量级,一旦数据量过数亿,就会有些力不从心,并且搭建集群做分布式性能并不理想,如果要考虑以后数据量越来越大的情况,还是得用其他方案,为此我使用了solr。

Solr的基础是著名的Lucene框架,基于java,通过jdbc接口可以导入各种数据库和各种格式的数据,非常适合开发企业级的海量数据搜索平台,并且提供完善的solr cloud集群功能,更重要的是,solr的数据查询完全基于http,可以通过简单的post参数,返回json,xml,php,python,ruby,csv等多种格式。

以前的solr,本质上是一组servlet,必须放进Tomcat才能运行,从solr5开始,它已经自带了jetty,配置的好,完全可以独立使用,并且应付大量并发请求,具体的架构我们后面会讲到,现在先来进行solr的安装配置。

0×02 安装和配置

以下是我整个搭建和测试过程所用的硬件和软件平台,本文所有内容均在此平台上完成:

软件配置: solr5.5,mysql5.7,jdk8,Tomcat8 Windows10/Ubuntu14.04 LTS

硬件配置: i7 4770k,16G DDR3,2T西数黑盘

2.1 mysql数据库

Mysql数据库的安装和配置我这里不再赘述,只提一点,对于社工库这种查询任务远远多于插入和更新的应用来说,最好还是使用MyISAM引擎。

搭建好数据库后,新建一个库,名为newsgk,然后创建一个表命名为b41sgk,结构如下:

id bigint 主键 自动增长

username varchar 用户名

email varchar 邮箱

password varchar 密码

salt varchar 密码中的盐或者第二密码

ip varchar ip、住址、电话等其他资料

site varchar 数据库的来源站点

接下来就是把收集的各种裤子全部导入这个表了,这里推荐使用navicat,它可以支持各种格式的导入,具体过程相当的枯燥乏味,需要很多的耐心,这里就不再废话了,列位看官自己去搞就是了,目前我初步导入的数据量大约是10亿条。

2.2 Solr的搭建和配置

首先下载solr:

$ wget

解压缩:

$ tar zxvf solr-5.5.0.tgz

安装jdk8:

$ sudo add-apt-repository ppa:webupd8team/java

$ sudo apt-get update

$ sudo apt-get install oracle-java8-installer

$ sudo apt-get install oracle-java8-set-default

因为是java跨平台的,Windows下和linux下solr是同一个压缩包,windows下jdk的安装这里不再说明。

进入解压缩后的solr文件夹的bin目录,solr.cmd和solr分别是windows和linux下的启动脚本:

因为社工库是海量大数据,而jvm默认只使用512m的内存,这远远不够,所以我们需要修改,打开solr.in.sh文件,找到这一行:

SOLR_HEAP=”512m”

依据你的数据量,把它修改成更高,我这里改成4G,改完保存. 在windows下略有不同,需要修改solr.in.cmd文件中的这一行:

set SOLR_JAVA_MEM=-Xms512m -Xmx512m

同样把两个512m都修改成4G。

Solr的启动,重启和停止命令分别是:

$ ./solr start

$ ./solr restart –p 8983

$ ./solr stop –all

在linux下还可以通过install_solr_service.sh脚本把solr安装为服务,开机后台自动运行。

Solr安装完成,现在我们需要从mysql导入数据,导入前,我们需要先创建一个core,core是solr的特有概念,每个core是一个查询、数据,、索引等的集合体,你可以把它想象成一个独立数据库,我们创建一个新core:

在solr-5.5.0/server/solr子目录下面建立一个新文件夹,命名为solr_mysql,这个是core的名称,在下面创建两个子目录conf和data,把solr-5.5.0/solr-5.5.0/example/example-DIH/solr/db/conf下面的所有文件全部拷贝到我们创建的conf目录中.接下来的配置主要涉及到三个文件, solrconfig.xml, schema.xml和db-data-config.xml。

首先打开db-data-config.xml,修改为以下内容:

dataConfig

dataSource name="sgk" type="JdbcDataSource" driver="com.mysql.jdbc.Driver" url="jdbc:mysql://127.0.0.1:3306/newsgk" user="root" password="password" batchSize="-1" /

document name="mysgk"

entity name="b41sgk" pk="id" query="select * from b41sgk"

field column="id" name="id"/

field column="username" name="username"/

field column="email" name="email"/

field column="password" name="password"/

field column="salt" name="salt"/

field column="ip" name="ip"/

field column="site" name="site"/

/entity

/document

/dataConfig

这个文件是负责配置导入数据源的,请按照mysql实际的设置修改datasource的内容,下面entity的内容必须严格按照mysql中社工库表的结构填写,列名要和数据库中的完全一样。

然后打开solrconfig.xml,先找到这一段:

schemaFactory class="ManagedIndexSchemaFactory"

bool name="mutable"true/bool

str name="managedSchemaResourceName"managed-schema/str

/schemaFactory

把它全部注释掉,加上一行,改成这样:

!-- schemaFactory class="ManagedIndexSchemaFactory"

bool name="mutable"true/bool

str name="managedSchemaResourceName"managed-schema/str

/schemaFactory--

schemaFactory class="ClassicIndexSchemaFactory"/

这是因为solr5 以上默认使用managed-schema管理schema,需要更改为可以手动修改。

然后我们还需要关闭suggest,它提供搜索智能提示,在社工库中我们用不到这样的功能,重要的是,suggest会严重的拖慢solr的启动速度,在十几亿数据的情况下,开启suggest可能会导致solr启动加载core长达几个小时!

同样在solrconfig.xml中,找到这一段:

searchComponent name="suggest" class="solr.SuggestComponent"

lst name="suggester"

str name="name"mySuggester/str

str name="lookupImpl"FuzzyLookupFactory/str !-- org.apache.solr.spelling.suggest.fst --

str name="dictionaryImpl"DocumentDictionaryFactory/str !-- org.apache.solr.spelling.suggest.HighFrequencyDictionaryFactory --

str name="field"cat/str

str name="weightField"price/str

str name="suggestAnalyzerFieldType"string/str

/lst

/searchComponent

requestHandler name="/suggest" class="solr.SearchHandler" startup="lazy"

lst name="defaults"

str name="suggest"true/str

str name="suggest.count"10/str

/lst

arr name="components"

strsuggest/str

/arr

/requestHandler

把这些全部删除,然后保存solrconfig.xml文件。

接下来把managed-schema拷贝一份,重命名为schema.xml (原文件不要删除),打开并找到以下位置:

只保留_version_和_root_节点,然后把所有的field,dynamicField和copyField全部删除,添加以下的部分:

field name="id" type="int" indexed="true" stored="true" required="true" multiValued="false" /

field name="username" type="text_ik" indexed="true" stored="true"/

field name="email" type="text_ik" indexed="true" stored="true"/

field name="password" type="text_general" indexed="true" stored="true"/

field name="salt" type="text_general" indexed="true" stored="true"/

field name="ip" type="text_general" indexed="true" stored="true"/

field name="site" type="text_general" indexed="true" stored="true"/

field name="keyword" type="text_ik" indexed="true" stored="false" multiValued="true"/

copyField source="username" dest="keyword"/

copyField source="email" dest="keyword"/

uniqueKeyid/uniqueKey

这里的uniqueKey是配置文件中原有的,用来指定索引字段,必须保留。新建了一个字段名为keyword,它的用途是联合查询,即当需要同时以多个字段做关键字查询时,可以用这一个字段名代替,增加查询效率,下面的copyField即用来指定复制哪些字段到keyword。注意keyword这样的字段,后面的multiValued属性必须为true。

username和email以及keyword这三个字段,用来检索查询关键字,它们的类型我们指定为text_ik,这是一个我们创造的类型,因为solr虽然内置中文分词,但效果并不好,我们需要添加IKAnalyzer中文分词引擎来查询中文。在下载IKAnalyzer for solr5的源码包,然后使用Maven编译,得到一个文件IKAnalyzer-5.0.jar,把它放入solr-5.5.0/server/solr-webapp/webapp/WEB-INF/lib目录中,然后在solrconfig.xml的fieldType部分加入以下内容:

fieldType name="text_ik" class="solr.TextField"

analyzer type="index" useSmart="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/

analyzer type="query" useSmart="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/

/fieldType

保存后,core的配置就算完成了,不过要导入mysql数据,我们还需要在mysql网站上下载mysql-connector-java-bin.jar库文件,连同solr-5.5.0/dist目录下面的solr-dataimporthandler-5.5.0.jar,solr-dataimporthandler-extras-5.5.0.jar两个文件,全部拷贝到solr-5.5.0/server/solr-webapp/webapp/WEB-INF/lib目录中,然后重启solr,就可以开始数据导入工作了。


分享题目:php大数据查询系统源码 php数据统计源码
当前URL:http://cdweb.net/article/hpsogp.html