blacklist专题

Kafka-Spark Streaming 异常: dead for group td_topic_advert_impress_blacklist

最近在编写Spark Streaming 作业的时候,遇到了一个比较奇怪的问题,表现如下:   在本地连接Kafka 集群执行作业: 18/10/31 17:42:58 INFO AbstractCoordinator: Discovered coordinator kafka1:9092 (id: 2147483574 rack: null) for group td_topic_a

[GYCTF2020]Blacklist 强网杯随便注

强网杯随便注 先测试 字符型 1' or '1'='1 return preg_match("/select|update|delete|drop|insert|where|\./i",$inject); 过滤了select 先看表,看列 堆叠注入 payload: 1';show tables;%23 1';show columns from `19198109311

web:[GYCTF2020]Blacklist

题目 点开靶机,页面显示为 查看源码 没有其他线索 先提交1试一下 猜测是sql注入,先测试 同时注意到url 提交为3-1,发现页面回显为空白 可以判断为字符型注入 输入select,看是否存在回显 回显了黑名单限制的关键字 但是发现没有限制关键字show,通过堆叠注入查数据库名 构造payload 1';show databases

buuctf-[GYCTF2020]Blacklist sql堆叠注入

这题我一开始还以为是rce,但是看到注入框内写了1,那就肯定是sql 提交1 1' 报错,更加确定是sql  1' order by 2 -- + 说明是两列 1' union select 1,# 发现select被过滤了 这里我想起了之前做的强网杯的随便住,也是被过滤了,然后使用的堆叠注入 1';show tables -- +  1'; show columns

buuctf-[GYCTF2020]Blacklist

这题我一开始还以为是rce,但是看到注入框内写了1,那就肯定是sql 提交1 1' 报错,更加确定是sql  1' order by 2 -- + 说明是两列 1' union select 1,# 发现select被过滤了 这里我想起了之前做的强网杯的随便住,也是被过滤了,然后使用的堆叠注入 1';show tables -- +  1'; show columns