Web开发
Unread介绍本博客用于记录一些技术学习笔记,便于我日后自己查询。这篇文章记录一下创建此博客时的过程以及配置时的产生的问题以及一些解决方法。内容主要包括:
域名准备:购买域名并托管到Cloudflare
Hexo博客搭建: 搭建环境并且部署
配置Hexo主题
搭建的全部过程中可能遇到的问题
域名准备具体视频演示参考域名托管参考视频。
1. 网站注册这里选择Namesilo网站做演示,注册结束之后直接搜索想要的域名加入购物车后使用默认地址后可使用支付宝购买。
2. 托管到Cloudflare首先注册Cloudflare账号,注册完成后选择添加站点,在如下界面中将购买好的域名输入进行扫描。随后默认点击直到更改名称服务器,界面如下:回到Namesilo,点击Domain Manager, 点击购买好的域名,默认在Quick settings界面,将默认的三条NameServer删除,更改为Cloudflare分配的两个后保存。随后回到cloudflare,点击立即检查名称服务器,随后点击继续,随后默认点击,等到界面中的域名有绿色勾表示可以正常使用。
Hexo博客搭建具体文章和视频演示参考Hexo搭 ...
工具(框架)学习
Unread
HDFS 负责分布式存储,Yarn 负责集群资源调度,Hive 基于两者之上提供 SQL 查询接口。
前置准备以下步骤需在三台节点上全部执行。
配置主机名与节点映射12345678# 各节点分别设置主机名hostnamectl set-hostname node1 # node2、node3 同理# 三台节点均追加以下内容到 /etc/hostsvim /etc/hosts192.168.x.x node1192.168.x.x node2192.168.x.x node3
创建 hadoop 用户123# 三台节点均执行useradd hadooppasswd hadoop
配置 SSH 免密登录1234567# 在 node1 上生成密钥,一路回车ssh-keygen -t rsa# 将公钥分发到三台节点(含自身),执行后输入对应节点密码ssh-copy-id hadoop@node1ssh-copy-id hadoop@node2ssh-copy-id hadoop@node3
HDFS
镜像:centos_7_9_x64_20G_alibase
Java:JDK 1 ...
Hive 本质是将 SQL 翻译成 MapReduce / Tez / Spark 作业执行,底层存储在 HDFS 上。与 MySQL 最大的区别在于:写入一次、读取多次,不支持行级更新删除,延迟高但吞吐量大。
与 MySQL 的核心差异
特性
MySQL
Hive
事务/ACID
支持
默认不支持(开启 ACID 后有限支持)
UPDATE / DELETE
支持
默认不支持(ACID 表支持)
自增主键
AUTO_INCREMENT
不支持
索引
B+Tree 索引
无传统索引(依赖分区 / 分桶剪枝)
数据写入
INSERT 实时
LOAD DATA 或 INSERT OVERWRITE
执行引擎
本地存储引擎
MapReduce / Tez / Spark
延迟
毫秒级
秒~分钟级
数据格式
行存
TextFile / ORC / Parquet 等
NULL 比较
IS NULL
IS NULL 或使用 NVL()
数据库操作12345 ...
[up主专用,视频内嵌代码贴在这]
.video-container {
position: relative;
width: 100%;
padding-top: 56.25%; /* 16:9 aspect ratio (height/width = 9/16 * 100%) */
}
.video-container iframe {
position: absolute;
top: 0;
left: 0;
width: 100%;
height: 100%;
}
Claude Code 是 Anthropic 官方推出的命令行 AI 编程助手,直接运行在终端里,能读写本地文件、执行 Shell 命令、操作 Git,并通过 MCP 协议对接外部服务。本文分四个部分递进介绍。
命令速查123456789101112131415Shift+Tab 切换工作模式(默认 / 自动 / 规划)Ctrl+B 将任务推送到后台执行Esc Esc 快速触发 Rewind/plan 进入规划模式/rewind 版本回滚/resume 恢复历史会话/compact 压缩上下文/clear 清空上下文/init 生成 CLAUDE.md/hooks 配置 Hook 规则/agent 唤起 SubAgent/mcp 查看已安装的 MCP 工具/tasks 查看后台任务状态! <command> 执行 Shell 命令并将输出反馈给 Claude
1 ...
215. 数组中的第K个最大元素利用堆或者sort进行排序可以直接利用Cpp当中的优先级队列即最大堆,或者将数组排序后取就行,不过实现的时间复杂度为 $O(nlogn)$,不符合题目要求。
12345678910111213class Solution {public: int findKthLargest(vector<int>& nums, int k) { priority_queue<int> que; for(int num:nums){ que.push(num); } for(int i=0;i<k-1;i++){ que.pop(); } return que.top(); }};
快速选择首先理解一下快速排序,如下代码为最简版的快排代码(取数组第一个元素作为基准,分为左右两个数组,逐渐递归当数组长度为1时返回):
...
窗口函数窗口函数(Window Function)是在查询结果的“窗口”内 对行做计算,不会把行合并成一条(不像 GROUP BY)。
12345函数名(...) OVER ( [PARTITION BY 列1, 列2, ...] -- 分区,相当于每个组内单独计算 [ORDER BY 列3, 列4, ...] -- 窗口内行的顺序 [ROWS|RANGE BETWEEN 起点 AND 终点] -- 窗口框架)
其中ROWS的关键词有:
UNBOUNDED PRECEDING:从分区的第一行开始
N PRECEDING:从当前行前N行开始
CURRENT ROW:从当前行开始
N FOLLOWING:从当前行后N行开始
UNBOUNDED FOLLOWING:分区最后一行
聚合类12345SUM(salary) OVER (PARTITION BY dept) -- 部门工资总和COUNT(*) OVER (PARTITION BY dept) -- 部门人数AVG(salary) OVER (PARTITION BY dept) ...
解题步骤
确定dp数组的含义
确定递推公式
初始化dp数组
确定遍历顺序
举例推导dp数组
背包问题0-1背包有n件物品,最多能背重量为w的背包,其中第i件物品的重量为weight[i],价值为value[i],每一个物品只能用一次,问如何装价值总和最大。
暴力可以用回溯法求解,每一个物品有取和不取两个状态,时间复杂度为 $O(2^n)$。
12345678910111213141516171819202122232425262728293031323334#include<iostream>#include<vector>using namespace std;int main(){ //二维数组实现0-1背包 int n,bagweight; cin>>n>>bagweight; vector<int> weight(n); vector<int> value(n); for(int i=0;i<n;i++){ cin>>wei ...
深搜和广搜岛屿数量(深搜版)通过深搜,每遇到一个没遍历过的陆地,计数器就增加1。遍历时需要visited数组判断是否遍历过。对于MN的二维表格,利用DFS进行搜索,时间复杂度为 $O(m*n)$。
对于n个节点,e条边,DFS的时间复杂度为$O(n+e)$
12345678910111213141516171819202122232425262728293031323334353637383940//深搜模板题#include<iostream>#include<vector>using namespace std;int dire[4][2] = {1,0,-1,0,0,1,0,-1}; //四个方向int count = 0;void dfs(int x,int y,vector<vector<int>>& grid,vector<vector<int>>& visited){ //从一个确定的岛屿块出发,把这个岛遍历完 if(grid[x][y]==0||v ...
工具(框架)学习
UnreadPytorch环境配置CUDA driver和CUDA runtime版本
确认自己显卡算力 -> 确认自己显卡型号
确认自己可以选择的CUDA Runtime Version
确保自己的CUDA Driver Version>= CUDA Runtime Version
在Pytorch官网上安装选择的版本小于等于nvidia-smi右侧的CUDA version
参考:
数据加载和处理DatasetPyTorch 的 Dataset 类是一个数据集的抽象类,主要用于定义如何获取数据及其对应的标签。可以用来加载各种格式的数据,例如图片、文本、CSV 文件等。可以继承 torch.utils.data.Dataset 并重写其中的方法来自定义数据集。对于图片数据,根据数据集存放地址,创建数据集的代码如下:
12345678910111213141516171819202122232425262728293031323334import osfrom torch.utils.data import Datasetfrom PIL import Image# 自定 ...









