最新記事

KVMのネットワークエラー
networking
iptables
virtual-machine
kvm
virt-manager

KVMのネットワークエラー

Debian 11(Bullseye)でKVM仮想マシンを実行しようとしています。 私もこれが本当に重要な場合に備えてChromeOSのcroutonでこれを実行していますが、そうではないと思います。 エラーは次のとおりです。インストールを完了できません。 「要求された操作が正しくありません。ネットワークの「デフォルト」が有効になっていません。」 Traceback (most recent call last): File "/usr/share/virt-manager/virtManager/asyncjob.py", line 65, in cb_wrapper callback(asyncjob, *args, **kwargs) File "/usr/share/virt-manager/virtManager/createvm.py", line 2001, in _do_async_install installer.start_install(guest, meter=meter) File "/usr/share/virt-manager/virtinst/install/installer.py", line 701, in start_install domain = self._create_guest( File "/usr/share/virt-manager/virtinst/install/installer.py", line 649, in _create_guest domain = self.conn.createXML(install_xml or final_xml, 0) File "/usr/lib/python3/dist-packages/libvirt.py", line 4366, in createXML raise libvirtError('virDomainCreateXML() failed') libvirt.libvirtError: Requested operation is not valid: network 'default' is not active 次のガイドを試しました。https://askubuntu.com/questions/1036297/cant-start-kvm-guest-network-default-is-not-active しかし、提供された修正 "sudo virsh net-start default" は失敗します。 sudo virsh net-start default [sudo] password for luhgarlicbread: error: Failed to start network default error: internal error: Failed to apply firewall rules /usr/sbin/iptables -w --table filter --list-rules: # Warning: iptables-legacy tables present, use iptables-legacy to see them iptables v1.8.7 (nf_tables): Could not fetch rule set generation id: Invalid argument また、KVM>編集(上部)>接続の詳細で左下の「ネットワークの起動」ボタンを押すとエラーが発生します。 Error starting network 'default': internal error: Failed to apply firewall rules /usr/sbin/iptables -w --table filter --list-rules: # Warning: iptables-legacy tables present, use iptables-legacy to see them iptables v1.8.7 (nf_tables): Could not fetch rule set generation id: Invalid argument Traceback (most recent call last): File "/usr/share/virt-manager/virtManager/asyncjob.py", line 65, in cb_wrapper callback(asyncjob, *args, **kwargs) File "/usr/share/virt-manager/virtManager/asyncjob.py", line 101, in tmpcb callback(*args, **kwargs) File "/usr/share/virt-manager/virtManager/object/libvirtobject.py", line 57, in newfn ret = fn(self, *args, **kwargs) File "/usr/share/virt-manager/virtManager/object/network.py", line 69, in start self._backend.create() File "/usr/lib/python3/dist-packages/libvirt.py", line 3436, in create raise libvirtError('virNetworkCreate() failed') libvirt.libvirtError: internal error: Failed to apply firewall rules /usr/sbin/iptables -w --table filter --list-rules: # Warning: iptables-legacy tables present, use iptables-legacy to see them iptables v1.8.7 (nf_tables): Could not fetch rule set generation id: Invalid argument KVMですべてのネットワークスキャンをバイパスしたり、ネットワークを完全に無効にしたりする方法はありますか?試してみるヒント、コツ、修正がありますか?これは問題が多いようです。 PS:他の問題はすべて解決しました。顕著な問題の1つは、libvirtdがsystemctlで始まらないことです(私の考えではそうです)。そのため、端末でプロセスを手動で開始し、用語を保持します。 virt-managerを使用してKVMから仮想マシンを作成しようとすると、ウィンドウが開きます。

Admin

XDPが出口にないのはなぜですか?
linux
networking
ebpf

XDPが出口にないのはなぜですか?

複数のソースを確認しましたが、LinuxはXDPエクスポートをサポートしていないことがわかりました。 私はxdpが元のパケットから何を変更できるか、そしてtcを除いて何を変更できないかを正確に知りたいと思います。 XDPエクスポートの質問の場合ユースケース:マルチキャスト。 (他のユースケースもあります。)ユースケースでXDPエクスポートがサポートされていない理由を推論する方法です。 (何を推論できますか?) xdpが開始セクションにありますが、終了セクションにはないことがわかります。しかし、なぜ?先ほどのMACアドレスを悪意を持って修正し、ネットワーククラッシュを引き起こす可能性があることを学びました。しかしそれは真実ではない。 xdp送信がサポートされていない理由を推測できるユースケースでは、接続できないものがあります。

Admin

コマンドラインからネットワークフォルダ(Google Drive)にアクセスする
networking
google

コマンドラインからネットワークフォルダ(Google Drive)にアクセスする

Dolphinを使用して、GoogleアカウントをGoogleドライブに正常にリンクしました。すべてが期待どおりに動作します。ファイルとフォルダが作成され同期されています。コマンドラインからアクセスしようとすると問題が発生します。私が知る限り、設定を編集するとき、フォルダは次の場所にあります。 remote:/gdrive-network Dolphinはこれを次のように表示します。 gdrive ソリューションの検索中に、一部のユーザーが次のフォルダを指していることがわかりました。 /run/user/1000/.gvfs そのフォルダやgvfsに関連するエントリはありません。私はそのキーワードについて私のドライブ全体を検索しました。 また、他のユーザーがrcloneのインストールを推奨しているのを見ましたが、他のものをインストールせずにそのまま動作したいと思います。 コマンドラインからこのネットワークドライブにどのようにアクセスしますか?

Admin

NetfilterとフォワーディングチェーンはARPを追跡しますが、他のパケットは追跡しません。
networking
docker
bridge
netfilter

NetfilterとフォワーディングチェーンはARPを追跡しますが、他のパケットは追跡しません。

Dockerコンテナでnetfilterを試しています。 3つのコンテナがあります。 1つは「ルーター」、2つは「エンドポイント」です。それらはそれぞれ以下を介して接続されます。pipeworkしたがって、各エンドポイント<->ルーター接続に対して外部(ホスト)ブリッジがあります。このような: containerA (eth1) -- hostbridgeA -- (eth1) containerR containerB (eth1) -- hostbridgeB -- (eth2) containerR containerRその後、「ルーター」コンテナには次のように構成されたブリッジがあります。br0 bridge name bridge id STP enabled interfaces br0 8000.3a047f7a7006 no eth1 eth2 net.bridge.bridge-nf-call-iptables=0他のテストの一部が邪魔になったため、ホストコンピュータでこれを行いました。 containerAIPがあり、あり192.168.10.1/24ます。containerB192.168.10.2/24 その後、転送されたパケットを追跡する非常に単純なルールセットがあります。 flush ruleset table bridge filter { chain forward { type filter hook forward priority 0; policy accept; meta nftrace set 1 } } これにより、ICMPパケットは追跡されず、ARPパケットのみが追跡されることがわかりました。つまり、is pingnft monitor中に実行すると、追跡されたARPパケットを見ることができますが、ICMPパケットは見ることができません。私の理解では、これは私を驚かせます。containerAcontainerBnftables用ブリッジフィルタチェーンタイプforward、パケットがこのステップを通過できない唯一の場合は、inputホスト(この場合containerR)を介して送信される場合です。 Linuxパケットフローチャートによると: 私はまだICMPパケットがARPのように転送パスを使用したいと思います。私する事前パスとポストパスを追跡したら、パケットを見てください。それで私の質問は、ここで何が起こっているのでしょうか?私が認識していないFlowtableやその他の段落はありますか?コンテナネットワーキングおよび/またはDockerに固有のものですか?コンテナの代わりにVMを確認することもできますが、他の人がこれを知っていたり、この問題を経験した場合は興味があるかもしれません。 編集する:その後、Alpine仮想マシンセットを使用してVirtualBoxで同様の設定を作成しました。 ICMPパケットするforwardチェーンに達するので、ホストやDockerの何かが私の期待を妨げているようです。私または他の人が原因を特定できるまで、この質問に答えないでください。誰かがこの方法が有用であることを知っている場合に備えているからです。 ありがとうございます! 再現可能な最小例 これを行うには、仮想マシンでAlpine Linux 3.19.1を使用し、次の場所communityでリポジトリを有効にします/etc/apk/respositories。 # Prerequisites of host apk add bridge bridge-utils iproute2 docker openrc service docker start # When using linux bridges instead of openvswitch, disable iptables on bridges sysctl net.bridge.bridge-nf-call-iptables=0 # Pipework to let me avoid docker's IPAM git clone https://github.com/jpetazzo/pipework.git cp pipework/pipework /usr/local/bin/ # Create two containers each on their own network (bridge) pipework brA $(docker create -itd --name hostA alpine:3.19) 192.168.10.1/24 pipework brB $(docker create -itd --name hostB alpine:3.19) 192.168.10.2/24 # Create bridge-filtering container then connect it to both of the other networks R=$(docker create --cap-add NET_ADMIN -itd --name hostR alpine:3.19) pipework brA -i eth1 $R 0/0 pipework brB -i eth2 $R 0/0 # Note: `hostR` doesn't have/need an IP address on the bridge for this example # Add bridge tools and netfilter to the bridging container docker exec hostR apk add bridge bridge-utils nftables docker exec hostR brctl addbr br docker exec hostR brctl addif br eth1 eth2 docker exec hostR ip link set dev br up # hostA should be able to ping hostB docker exec hostA ping -c 1 192.168.10.2 # 64 bytes from 192.168.10.2... # Set nftables rules docker exec hostR nft add table bridge filter docker exec hostR nft add chain bridge filter forward '{type filter hook forward priority 0;}' docker exec hostR nft add rule bridge filter forward meta nftrace set 1 # Now ping hostB from hostA while nft monitor is running... docker exec hostA ping -c 4 192.168.10.2 & docker exec hostR nft monitor # Ping will succeed, nft monitor will not show any echo-request/-response packets traced, only arps # Example: trace id abc bridge filter forward packet: iif "eth2" oif "eth1" ether saddr ... daddr ... arp operation request trace id abc bridge filter forward rule meta nfrtrace set 1 (verdict continue) trace id abc bridge filter forward verdict continue trace id abc bridge filter forward policy accept ... trace id def bridge filter forward packet: iif "eth1" oif "eth2" ether saddr ... daddr ... arp operation reply trace id def bridge filter forward rule meta nfrtrace set 1 (verdict continue) trace id def bridge filter forward verdict continue trace id def bridge filter forward policy accept # Add tracing in prerouting and the icmp packets are visible: docker exec hostR nft add chain bridge filter prerouting '{type filter hook prerouting priority 0;}' docker exec hostR nft add rule bridge filter prerouting meta nftrace set 1 # Run again docker exec hostA ping -c 4 192.168.10.2 & docker exec hostR nft monitor # Ping still works (obviously), but we can see its packets in prerouting, which then disappear from the forward chain, but ARP shows up in both. # Example: trace id abc bridge filter prerouting packet: iif "eth1" ether saddr ... daddr ... ... icmp type echo-request ... trace id abc bridge filter prerouting rule meta nfrtrace set 1 (verdict continue) trace id abc bridge filter prerouting verdict continue trace id abc bridge filter prerouting policy accept ... trace id def bridge filter prerouting packet: iif "eth2" ether saddr ... daddr ... ... icmp type echo-reply ... trace id def bridge filter prerouting rule meta nfrtrace set 1 (verdict continue) trace id def bridge filter prerouting verdict continue trace id def bridge filter prerouting policy accept ... trace id 123 bridge filter prerouting packet: iif "eth1" ether saddr ... daddr ... ... arp operation request trace id 123 bridge filter prerouting rule meta nfrtrace set 1 (verdict continue) trace id 123 bridge filter prerouting verdict continue trace id 123 bridge filter prerouting policy accept trace id 123 bridge filter forward packet: iif "eth1" oif "eth2" ether saddr ... daddr ... arp operation request trace id 123 bridge filter forward rule meta nfrtrace set 1 (verdict continue) trace id 123 bridge filter forward verdict continue trace id 123 bridge filter forward policy accept ... trace id 456 bridge filter prerouting packet: iif "eth2" ether saddr ... daddr ... ... arp operation reply trace id 456 bridge filter prerouting rule meta nfrtrace set 1 (verdict continue) trace id 456 bridge filter prerouting verdict continue trace id 456 bridge filter prerouting policy accept trace id 456 bridge filter forward packet: iif "eth2" oif "eth1" ether saddr ... daddr ... arp operation reply trace id 456 bridge filter forward rule meta nfrtrace set 1 (verdict continue) trace id 456 bridge filter forward verdict continue trace id 456 bridge filter forward policy accept # Note the trace id matching across prerouting and forward chains openvswitchでも試しましたが、単純化のためにLinuxブリッジの例を使用しましたが、関係なく同じ結果が生成されます。 openvswitchとの唯一の違いは、net.bridge.bridge-nf-call-iptables=0IIRCが必要ないことです。

Admin

/etc/samba/smb.conf:8進値に基づくコマンドの論理的なアプローチは何ですか? :chmodまたはumask?
networking
configuration
samba
chmod
umask

/etc/samba/smb.conf:8進値に基づくコマンドの論理的なアプローチは何ですか? :chmodまたはumask?

Sambaに関して、以下の貴重なチュートリアルを読んでいます。 Sambaを使用してUbuntuでネットワーク共有フォルダを設定する方法 このセクションには、Step 2: Configuring Samba次の構成が表示されます。 [sambashare] comment= Network Shared Folder by Samba Server on Ubuntu path = /home/your_username/sambashare force user = smbuser force group = smbgroup create mask = 0664 force create mode = 0664 directory mask = 0775 force directory mode = 0775 public = yes read only = no 4つのパラメータは8進値を使用します。 示されている8進数値に関連する構成側面の災害を避けるために、コマンドに対するどのような論理的アプローチに基づいていますか? :chmodまたはumask? 観察するこの質問をする理由は、これらのパラメータが一意の名前maskと用語で表示されるためです。mode

Admin

localhostで実行されるEnvoyプロキシはカールではうまく機能しますが、golang
networking
curl
proxy
golang

localhostで実行されるEnvoyプロキシはカールではうまく機能しますが、golang "hey"ツールではタイムアウトします。

私はいくつかのEnvoyチュートリアルを見ています(それが何であるかわからない場合は、おそらく重要ではありません)。私はUbuntu VM(Windows 11ホスト)と会社のファイアウォールの背後でこれを行っています。 特定のバージョンのEnvoyを動的にインストールして実行するためのツール「func -e」コマンドラインを実行して、特定のバージョンのEnvoyを実行します。出力はポート 10000 でリッスンしていることを示します。 別のシェルで ""を実行するcurl http://localhost:10000と、Envoyプロキシの期待される出力が返されます。 私は同じシェルで単純なロードテストツール「hey」というgolangツールを試しました。アクセスしたいURLを指定すると、結果が返されます。この例では、次の簡単な構成で実行します。 hey -n 1 -c 1 http://localhost:10000 これは、ワーカーに要求を送信することを意味します。これは、事前設定された20秒のタイムアウト後にタイムアウトします。 まず、VPNからノートブックを切断し、このテストを実行すると正常に動作します。 問題は、シェルのプロキシ設定、特に「no_proxy」変数に関連しているようです。カンマ区切りリストには「localhost」と「127.0.0.1」があります(変数「NO_PROXY」の値が同じ場合)。

Admin

データノードシステムの低速ブロック受信に関するHadoop+警告
linux
networking
rhel
hadoop
hdfs

データノードシステムの低速ブロック受信に関するHadoop+警告

データノードマシン(各データノードマシンにはサービスノードマネージャも含む)を含むHadoopクラスタがあり、487すべてのマシンは物理マシン(DELL)であり、オペレーティングシステムはRHELバージョン7.9です。 各データノードマシンには12個のディスクがあり、各ディスクサイズは12Tです。 HDPパッケージ(以前はHorton-works、現在はCloudera)にインストールされているHadoopクラスタの種類 ユーザーは、データノードシステムで実行されている遅いSparkアプリケーションについて文句を言います。 調査後、データノードログに次の警告が表示されます。 2024-03-18 17:41:30,230 WARN datanode.DataNode (BlockReceiver.java:receivePacket(567)) - Slow BlockReceiver write packet to mirror took 401ms (threshold=300ms), downstream DNs=[172.87.171.24:50010, 172.87.171.23:50010] 2024-03-18 17:41:49,795 WARN datanode.DataNode (BlockReceiver.java:receivePacket(567)) - Slow BlockReceiver write packet to mirror took 410ms (threshold=300ms), downstream DNs=[172.87.171.26:50010, 172.87.171.31:50010] 2024-03-18 18:06:29,585 WARN datanode.DataNode (BlockReceiver.java:receivePacket(567)) - Slow BlockReceiver write packet to mirror took 303ms (threshold=300ms), downstream DNs=[172.87.171.34:50010, 172.87.171.22:50010] 2024-03-18 18:18:55,931 WARN datanode.DataNode (BlockReceiver.java:receivePacket(567)) - Slow BlockReceiver write packet to mirror took 729ms (threshold=300ms), downstream DNs=[172.87.11.27:50010] 上記のログからwarning Slow BlockReceiver write packet to mirror took xxmsデータノードマシン172.87.171.23,172.87.171.24などを見ることができます。 私が理解しているように、異常に「遅い」とは、BlockReceiver write packet to mirrorOSキャッシュまたはディスクにブロックを書き込むのに遅延が生じる可能性があることを示しています。 だから私はこの警告/例外の理由を収集しようとしています。ここにあります。 オペレーティングシステムのキャッシュまたはディスクにブロックを書き込む際の遅延時間 クラスタがリソース制限(メモリ、CPU、またはディスク)に達したか、ほぼ到達しています。 マシン間ネットワークの問題 確認の結果見えません。ディスクまたはCPUまたはメモリ質問、私達はすべての機械を確認しました ネットワークの観点からは、デバイス自体に関する特別な問題は見られません。 また、iperf3 ro を使用して、あるシステムから別のシステムへの帯域幅を確認します。 以下は間の例ですdata-node01(data-node03 私が理解したところによると、私が間違っている場合は訂正してください。帯域幅は大丈夫です)。 データノード01から iperf3 -i 10 -s [ ID] Interval Transfer Bandwidth [ 5] 0.00-10.00 sec 7.90 GBytes 6.78 Gbits/sec [ 5] 10.00-20.00 sec 8.21 GBytes 7.05 Gbits/sec [ 5] 20.00-30.00 sec 7.25 GBytes 6.23 Gbits/sec [ 5] 30.00-40.00 sec 7.16 GBytes 6.15 Gbits/sec [ 5] 40.00-50.00 sec 7.08 GBytes 6.08 Gbits/sec [ 5] 50.00-60.00 sec 6.27 GBytes 5.39 Gbits/sec [ 5] 60.00-60.04 sec 35.4 MBytes 7.51 Gbits/sec - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bandwidth [ 5] 0.00-60.04 sec 0.00 Bytes 0.00 bits/sec sender [ 5] 0.00-60.04 sec 43.9 GBytes 6.28 Gbits/sec receiver データノード03で iperf3 -i 1 -t 60 -c 172.87.171.84 [ ID] Interval Transfer Bandwidth Retr Cwnd [ 4] 0.00-1.00 sec 792 MBytes 6.64 Gbits/sec 0 3.02 MBytes [ 4] 1.00-2.00 sec 834 MBytes 6.99 Gbits/sec 54 2.26 MBytes [ 4] 2.00-3.00 sec 960 MBytes 8.05 Gbits/sec 0 2.49 MBytes [ 4] 3.00-4.00 sec 896 MBytes 7.52 Gbits/sec 0 2.62 MBytes [ 4] 4.00-5.00 sec 790 MBytes 6.63 Gbits/sec 0 2.70 MBytes [ 4] 5.00-6.00 sec 838 MBytes 7.03 Gbits/sec 4 1.97 MBytes [ 4] 6.00-7.00 sec 816 MBytes 6.85 Gbits/sec 0 2.17 MBytes [ 4] 7.00-8.00 sec 728 MBytes 6.10 Gbits/sec 0 2.37 MBytes [ 4] 8.00-9.00 sec 692 MBytes 5.81 Gbits/sec 47 1.74 MBytes [ 4] 9.00-10.00 sec 778 MBytes 6.52 Gbits/sec 0 1.91 MBytes [ 4] 10.00-11.00 sec 785 MBytes 6.58 Gbits/sec 48 1.57 MBytes [ 4] 11.00-12.00 sec 861 MBytes 7.23 Gbits/sec 0 1.84 MBytes [ 4] 12.00-13.00 sec 844 MBytes 7.08 Gbits/sec 0 1.96 MBytes 注 - ネットワークカードは高速です10G(ethtoolで確認しました)。 NICカードのファームウェアバージョンも確認しました。 ethtool -i p1p1 driver: i40e version: 2.8.20-k firmware-version: 8.40 0x8000af82 20.5.13 expansion-rom-version: bus-info: 0000:3b:00.0 supports-statistics: yes supports-test: yes supports-eeprom-access: yes supports-register-dump: yes supports-priv-flags: yes カーネルメッセージ(dmesg)も確認しましたが、特別な内容は見つかりませんでした。 CPUのdmesgから dmesg | grep CPU [ 0.000000] smpboot: Allowing 32 CPUs, 0 hotplug CPUs [ 0.000000] smpboot: Ignoring 160 unusable CPUs in ACPI table [ 0.000000] setup_percpu: NR_CPUS:5120 nr_cpumask_bits:32 nr_cpu_ids:32 nr_node_ids:2 [ 0.000000] SLUB: HWalign=64, Order=0-3, MinObjects=0, CPUs=32, Nodes=2 [ 0.000000] RCU restricting CPUs from NR_CPUS=5120 to nr_cpu_ids=32. [ 0.184771] CPU0: Thermal monitoring enabled (TM1) [ 0.184943] TAA: Vulnerable: Clear CPU buffers attempted, no microcode [ 0.184944] MDS: Vulnerable: Clear CPU buffers attempted, no microcode [ 0.324340] smpboot: CPU0: Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz (fam: 06, model: 4f, stepping: 01) [ 0.327772] smpboot: CPU 1 Converting physical 0 to logical die 1 [ 0.408126] NMI watchdog: enabled on all CPUs, permanently consumes one hw-PMU counter. [ 0.436824] MDS CPU bug present and SMT on, data leak possible. See https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/mds.html for more details. [ 0.436828] TAA CPU bug present and SMT on, data leak possible. See https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/tsx_async_abort.html for more details. [ 0.464933] Brought up 32 CPUs [ 3.223989] acpi LNXCPU:7e: hash matches [ 49.145592] L1TF CPU bug present and SMT on, data leak possible. See CVE-2018-3646 and https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/l1tf.html for details.

Admin

NetworkManagerを使用してブリッジを作成できない
networking
networkmanager
bridge

NetworkManagerを使用してブリッジを作成できない

なぜ使用できないのかを調べようとしますNetworkManager。 NetworkManager今では、ブリッジネットワークの作成方法をさまざまな場所で検索してみましたが、チュートリアル一つにも言及できないほどです。彼らはすべてほぼ同じです。私がしたステップは次のとおりです。 イーサネットの切断 nmcli dev disconnect enp42s0 ブリッジとスレーブの生成 nmcli con add type bridge ifname br0 con-name br0 autoconnect yes connection.zone home nmcli con modify enp42s0 master br0 connection.zone home ブリッジとスレーブの接続 nmcli con up br0 nmcli con up enp42s0-slave 最後のコマンドを除いて、すべてが成功します。次のエラーが表示されます。 Error: Connection activation failed: Unknown error Hint: use 'journalctl -xe NM_CONNECTION=658de29d-4809-4113-9aa9-1f3f32ae40eb + NM_DEVICE=enp42s0' to get more details. journalctlログはあまり役に立ちません。 device (enp42s0): Activation: starting connection 'enp42s0-slave' (658de29d-4809-4113-9aa9-1f3f32ae40eb) device (enp42s0): state change: disconnected -> prepare (reason 'none', sys-iface-state: 'managed') device (enp42s0): state change: prepare -> config (reason 'none', sys-iface-state: 'managed') device (enp42s0): state change: config -> ip-config (reason 'none', sys-iface-state: 'managed') device (enp42s0): Activation: connection 'enp42s0-slave' could not be enslaved device (enp42s0): state change: ip-config -> failed (reason 'unknown', sys-iface-state: 'managed') device (enp42s0): released from master device br0 device (enp42s0): Activation: failed for connection 'enp42s0-slave' device (enp42s0): state change: failed -> disconnected (reason 'none', sys-iface-state: 'managed') 文脈のために、私はこれに関する質問もしました。NetworkManagerはipコマンドとは異なる情報を表示します。

Admin

GRE インターフェイスでブリッジングを設定しようとすると問題が発生します。
networking
network-interface
ipv6
bridge
ipv4

GRE インターフェイスでブリッジングを設定しようとすると問題が発生します。

次のコマンドを使用してipv6トンネルを作成しました。 ip link add gre_test type ip6gre remote 2001:4860:4860::8888 local ffff:ffff:ffff:ffff:ffff:ffff:ffff:ffff ttl 255 実際のIPv6を削除しました。 その後、このインターフェースを開きました。 ip link set dev gre_test up 最後に、default_lan ブリッジの下にインターフェイスを追加しようとしたときにこの問題が発生しました。 brctl addif default_lan gre61 can't add gre61 to bridge default_lan: Invalid argument したがって、デフォルトではipv6トンネルを作成してブリッジインターフェイスで終了しますが、ブリッジを追加しようとすると無効な引数エラーが発生します。 gre インターフェイスが純粋な ipv4 で「gretap」を使用している場合に動作します。

Admin

Alfa AWUS036nha 外部 USB アダプタが Ubuntu 18.04 では動作しません。
networking
wifi
usb

Alfa AWUS036nha 外部 USB アダプタが Ubuntu 18.04 では動作しません。

私は新しいUbuntuユーザーであり、残念ながら数年間Ubuntu 18.04で「WiFiアダプタが見つかりません」という問題に直面してきました。そのため、Web調査に基づいて、Atheros AR9271 USBドライバが外部WiFiアダプタとしてうまく動作することがわかりました。 私はそれを始めるためにすべてを試しました。 (rtl88XXXX modprobからmake、install、atherosファームウェアのインストールまで...名前を付けてください!)効果がない!マイコンピュータに内蔵されているWiFiアダプタはBroadcom製品です。 考慮すべきいくつかの仕様は次のとおりです。 ネットワーク description: Network controller product: BCM4352 802.11ac Wireless Network Adapter vendor: Broadcom Inc. and subsidiaries physical id: 0 bus info: pci@0000:01:00.0 version: 03 width: 64 bits clock: 33MHz capabilities: pm msi pciexpress bus_master cap_list configuration: driver=bcma-pci-bridge latency=0 resources: irq:18 memory:c1200000-c1207fff memory:c1000000-c11fffff ネットワーク description: Ethernet interface physical id: 3 logical name: enp0s20u1u2 serial: ba:df:bc:e9:8c:44 capabilities: ethernet physical configuration: broadcast=yes driver=rndis_host driverversion=22-Aug-2005 firmware=RNDIS device ip=192.168.42.14 link=yes multicast=yes 結果lsusb Bus 002 Device 002: ID 2109:0812 VIA Labs, Inc. VL812 Hub Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 001 Device 006: ID 048d:8386 Integrated Technology Express, Inc. Bus 001 Device 005: ID 1bcf:2c43 Sunplus Innovation Technology Inc. Bus 001 Device 003: ID 0489:e07a Foxconn / Hon Hai Bus 001 Device 009: ID 0cf3:9271 Qualcomm Atheros Communications AR9271 802.11n Bus 001 Device 008: ID 2a70:f00e Bus 001 Device 002: ID 2109:0812 VIA Labs, Inc. VL812 Hub Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub どんな助けでもいただければ幸いです!よろしくお願いします!

Admin

特定のIP /ネットワークインターフェイスから商用VPNラインバッカーインターフェイスにトラフィックをルーティングする方法は?
networking
iptables
vpn
wireguard

特定のIP /ネットワークインターフェイスから商用VPNラインバッカーインターフェイスにトラフィックをルーティングする方法は?

私のデバイスは、TailscaleネットワークのVPSにルーティングされるTailscaleネットワークを持つ設定を実装しようとしています。出口ノードただし、出口ノードは ProtonVPN ラインマントンネルを介して関連トラフィックを転送できます。これに対する主な動機は、私のAndroidクライアントが一度に1つの「常時接続」VPN接続しか持てないことです。これを行うには、次の中から選択する必要があります。誰でもTailscaleまたはProtonVPNに接続します。 同時に、出口ノードで「終了」するトラフィック(たとえば、VPSのTailscale IPへのSSH接続)がアップストリームVPNに転送されないようにしたいと思います。 Tailscaleに慣れていない人のためにtailscale0Tailscaleと呼ばれるツールを提供します。100.64.0.0/10 デバイス範囲。さらに、VPSホストにはHTTP / HTTPSを介してパブリックインターネットにWebサービスを公開する複数のDockerコンテナがあり、これらのサービスに引き続きアクセスできるようにしたいです。 次の図は、必要な設定(およびVPSのネットワークインターフェイス)をまとめたものです。 net.ipv4.ip_forward = 1VPS出口ノードでIP転送を設定して有効にしましたnet.ipv6.conf.all.forwarding = 1。私はufwが有効なUbuntu 22.04を実行しており、ポート80、443、およびSSHを許可しています。 ProtonVPNが提供するワイヤガードの構成は次のとおりです。 [Interface] PrivateKey = Address = 10.2.0.2/32 DNS = 10.2.0.1 [Peer] PublicKey = AllowedIPs = 0.0.0.0/0 Endpoint = :51820 この設定を設定しましたが、/etc/wireguard/wgpvpn0.conf実行するとwg-quick up wgpvpn0VPSにSSHで接続できなくなり(パブリックインターネットインターフェイスまたはTailscaleインターフェイスを介して)、パブリックインターフェイスを介して公開されたポート80/443でホストされているすべてのサービスにアクセスできなくなります。私はこれがすべてのトラフィックのデフォルトゲートウェイになるインターフェイスのAllowedIPs = 0.0.0.0/0ためだと思います。wgpvpn0 解決策はファイアウォール/ルーティングルールを追加するためにwireguard設定を使用することだと思いますPreUp/PostDownが、iptablesに慣れていないので、何を追加するのかわかりません。私に必要なルールは次のとおりです。 次の特性を持つすべてのトラフィック最終目的地100.64.0.0/10 の範囲のネットワークは、Tailscale ネットワークインターフェイスで管理する必要があります。 何でも最終目的地Tailscale出口ノードIP情報は出口ノードで処理する必要があります。私は上記のルールがTailscaleインターフェイスを介してこれを処理すると思います。 次の特性を持つすべてのトラフィック最終目的地VPSのパブリックIPに関する情報は、VPSによって処理されなければなりません(たとえば、インターフェイスを介して受信され、ens3私のVPSで実行されるリバースプロキシによって処理されます)。 私のTailscaleネットワーク(Tailscaleインターフェイスによって受信されることを意味します)からVPS出口ノードに転送されるすべてのトラフィックは次のとおりです。最終目的地パブリックインターネット上のネットワークはProtonVPN Linemanインターフェイスを介してルーティングする必要があります。そのため、反対方向の反応が流れなければなりません。 (たとえば、Tailscaleネットワーク経由でgoogle.comのAndroidクライアントにログインするリクエスト - > tailscaleネットワークのVPS - > VPSのProtonVPNトンネル - >インターネット経由でGoogleサーバーにログインする応答 - > VPSのProtonVPNトンネル - > tailscaleネットワークVPSをオンにする-> Android Tailscaleネットワークのクライアント) VPSのすべてのトラフィックはProtonVPNトンネル(現在0.0.0.0 / 0が使用されている)を使用する必要があります。 誰でも助けることができますか?

Admin