在WSL上部署Hadoop

今天上午在VLC的官网上看到一个叫VLMC的尚未发布的项目,是非线性视频编辑软件,具体介绍见官网。于是就想折腾一下,马上把源码clone下来想要编译,可是Windows少太多东西,一番瞎搞后,编译任务最终还是以失败告终。但是突然想起Windows的WSL是真香产品,便立即放弃编译,开始永无止境的折腾之路,然后就有了今天上午三个小时的安装Hadoop过程。

主要安装步骤参考CSDN上的教程这里就不多做赘述,谈一下我遇到的几个问题:

  1. 使用SSH连接本地时遇到拒绝连接 Connection Refused 的情况,是因为在WSL中启动ssh服务需要root权限,所以导致ssh服务启动失败,执行以下命令即可启动ssh连接本地: sudo service ssh start

  2. 在安装并配置好Hadoop后,在执行 ./sbin/start-dfs.sh 时出现 localhost: sleep: cannot read realtime clock: Invalid argument 报错。Google之后找到答案,原来是WSL Ubuntu的问题,输入以下命令即可解决:

    sudo mv /bin/sleep /bin/sleep~
    touch /bin/sleep
    chmod +x /bin/sleep

解决以上问题后浏览器输入localhost:50070即可访问Hadoop,如下图所示:
localhost:50070
安装完成之后可以运行一个wordcount示例进行测试,如果成功就证明Hadoop安装完成,下面就可以自己写任务了。

以上即为今天的WSL安装Hadoop的实践过程。

Read more

Cloudflare’s Uptime and Scale

Link ⇢ 本文讨论了 Cloudflare(一家提供互联网基础设施服务的公司)对于像 Daring Fireball (DF) 这样的网站的重要性。尽管 Cloudflare 曾发生一次中断,导致 DF 无法访问约 90 分钟,但作者 John Gruber 并不打算停止使用他们的服务。他解释说,在 2018 年使用 Cloudflare 之前,Daring Fireball 管理着自己的服务器,设置很简单。然而,转向 HTTPS(超文本传输安全协议,一种更安全的网络协议版本)增加了复杂性。Gruber 最初使用 Cloudflare 是为了解决导致速度变慢的 SSL(安全套接字层,一种安全技术)问题,也为了 DNS(域名系统,将网站名称转换为 IP

Cloudflare outage on November 18, 2025

Link ⇢ 2025年11月18日,Cloudflare遭遇了一次重大的服务中断,影响了全球核心网络流量。此次事件是由Bot管理功能文件生成逻辑中的一个错误触发的,该错误导致文件大小翻倍。这个超大文件在Cloudflare网络中传播,导致负责路由流量的软件出现故障。最初被误认为是网络攻击,但问题最终被正确识别为数据库权限更改,导致错误数据写入功能文件。超大文件超出了Bot管理软件的大小限制,导致其失效并向尝试访问Cloudflare保护站点的用户返回HTTP 5xx错误代码。Turnstile、Workers KV和Access等服务也受到了影响。在停止传播故障文件并恢复到早期版本后,网络于世界标准时间14:30左右开始恢复。到世界标准时间17:06,所有功能恢复正常。Cloudflare已就此次中断道歉,并正在实施措施以防止未来发生类似事件,包括加强配置文件摄取和启用更多全局终止开关。