只因不值得 
  • 首页
  • 归档
  • 分类
  • 关于
  • 友链
  •     

Ar150刷wifipineapple

原文网址:https://www.freebuf.com/articles/wireless/166709.html 准备下载AR150路由的wifipineapple的rom,AR150-wifipine固件下载备份现有路由器版本的rom 刷机有两种方式: 利用路由器升级功能 把rom上传到路由器,然后执行刷机命名,等待完成mtd -r write /tmp/xxxx.rom firmware Ps:中间不要断电 刷机完成之后,浏览器地址输入:172.16.42.1:1471,进入设置界面...
 2019-08-18   硬件相关   

Web/详细分析md5{d_base64}解密方式

 2019-08-18  

解析php混淆加密解析的手段

php做为一门当下非常流行的web语言,常常看到有人求解密php文件,想当年的asp也是一样。一些人不理解为什么要混淆(加密),甚至鄙视混淆(加密),在我看来混淆加密代码可以用来防一般的小人,会起到一定的保护作用。 加密的原因1.保护代码,防止别人剽窃2.保护文件,防止别人发现/查杀(php木马 or 后门)3.剽窃了他人代码防止被发现4.其他商业或非商业目的...
 2019-08-18   Web   

靶场Access绕过通用防注入

思路在进行asp注入的时候,发现网站有通用防注入文件通过御剑扫描,看到了sqlin.asp文件,是记录防注入的那我们是否可以提交一个一句话,再进行访问记录文件?...
 2019-08-18   Web   

根据404页面判断服务器和系统服务【转载】

JSP在网址后面加 /1 显示如下图这样的,是JSP站,apache,linux服务器JSP站 8080、81端口一般都是开启的,可以在网址后面加上8080,81这样来测试...
 2019-08-18   Web   

图片一句话制作

copy需要一张图片一句话木马 参数 /b 指定以二进制格式赋值,合并文件,用于图像类/声音类文件参数 /a 指定以ASCII格式复制,合并文件,用于txt等文档文件 copy 1.jpg/b+1.php 2.jpg...
 2019-08-18   Web   

二次注入学习笔记

简介正常注入我们是在http请求中构造恶意sql语句发送至服务端进行处理系统是立即执行并以响应的的形式返回至攻击者的客户端上的 二次注入:是注入点经过函数过滤或防护无法触发漏洞,但是存入数据库中又被还原了,导致数据库中的数据执行时可能出现二次注入漏洞例如:在一个存在注入又被函数过滤了的数据存入数据库中还原了,同时在其他地方可以引用该数据...
 2019-08-18   Web   

Sql基础注入笔记

利用可控的参数或者入口来加载不可控的参数或者代码,造成恶意不可控的运行结果最新phpstudy中mysql.ini添加mysql.ini secure_file_priv=""配置 MysqlMysql5.0之后默认存放一个:information_schema的数据库该库中的三个表名:SCHEMATA,TABLES,COLUMNS说明: SCHEMATA表存储该用户创建的所有数据库名 该表中距离数据库名的字段为:SCHEMA_NAME TABLES表存储该用户创建的所有数据库的库名和表名 该表中记录数据库名和表名的字段为:TABLE_SCHEMA和TABLE_NAME COLUMNS表存储该用户创建的所有数据库的库名,字段名,表名 数据库名,表名,字段名:TABLE_SCHEMA和TABLE_NAME和COLUMN_NAME ...
 2019-08-18   Web   

靶场Sql字符串注入

扯淡由于久了没手动了,今天就在靶场进行下手工吧。。。 猜测语句$id = $_GET['x']; select * from news where id='admin'; select * from news where id="admin";...
 2019-08-18   Web   

【学习篇】Robots协议(也称为爬虫协议,机器人协议)

Robots协议Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol)网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。 robots.txt 文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统自带的Notepad,就可以创建和编辑它 。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。...
 2019-08-18   Web   
1…34567

搜索

2018 只因不值得