技術面接
■日文 自己紹介(2〜3分)
はじめまして、盛と申します。中国の大学院で電気工学とシステム分析を学んだ後、2016年から日本でソフトウェア開発をしています。これまで8年以上、日本語環境でクラウド、AI、自動化などのプロジェクトに関わってきました。
最近はAWSやAzureを使い、AIのマネージドサービスを実装する経験を積んできました。たとえば、社内エージェントシステムの開発では、BedrockやKendraを使い、RAGやセキュリティ設計も行いました。LinuxやPythonを使った開発は長く経験しています。Firewallやモニタリングについても、運用自動化やセキュリティ強化を意識してきました。
私は新しい技術を学ぶことが好きで、BicepのようなIaCツールにも挑戦したいと思っています。お客様の要件に合わせて、クラウド基盤やAIサービスの実装に貢献できると考えています。どうぞよろしくお願いいたします。
■Bicep
- **Azure専用のIaC言語**。
- ARMテンプレート(Azure Resource Manager Template, JSON)を簡潔に書くための上位言語。
- Azureリソースとの互換性が完全で、新機能もすぐサポート。
- 学習コストが低い。YAMLに近いシンプルな書き方。
- ただし、Azure以外(AWSやGCP)には使えない。
■Terraform
- **マルチクラウド対応のIaCツール**。
- Azure, AWS, GCP など幅広く使える。
- 大規模環境やマルチクラウド運用で実績が豊富。
- State(状態管理ファイル)を扱うため、チーム開発ではバックエンド管理が必要。
- 新しいAzure機能の対応はBicepより遅れることもある。
■使い分け
- Azure専用案件 → Bicepのほうがシンプルで最新機能に強い。
- マルチクラウドや既存Terraform資産がある案件 → Terraformを選ぶ。
- 学習のしやすさ → Bicep。
- 運用の柔軟性 → Terraform。
面接で使える一言まとめ(日英)
日本語
「Azureに特化するならBicepが軽量で学びやすいです。マルチクラウドやチーム運用を考えるとTerraformの方が実績が豊富です。」
English
“For Azure only, Bicep is simpler and supports new features quickly. For multi-cloud or team operations, Terraform has more use cases and flexibility.”
■日文 想定質問と回答
Q1. Azureの経験はありますか?
A1. はい。最近は主にAWSを使いましたが、AzureポータルからAIサービスを利用する実装も経験があります。新しいサービスも積極的に学びます。
まず、CloudWatch です。
CloudWatch は AWS の監視ツールです。
サーバーやアプリの CPU、メモリ、ログを集めて、グラフやアラートを作れます。
Azure では同じ役割は Azure Monitor です。
同じようにメトリクスやログを集めて、ダッシュボードやアラートを作れます。
次に、Security Group です。
これは AWS の仮想ファイアウォールです。
インスタンスごとに入出力の通信を制御できます。
Azure では Network Security Group(NSG) が同じ役割です。
サブネットやネットワークインターフェースにルールを設定できます。
Direct Connect は AWS と自社データセンターを専用線でつなぐサービスです。
Azure では ExpressRoute が対応します。
高速で安定した専用回線接続が可能です。
PrivateLink と PrivateLink Service は、AWS のサービスをプライベート IP で利用する仕組みです。
Azure では Private Endpoint と Private Link Service が同じ役割です。
クライアント側は Private Endpoint、サービス提供側は Private Link Service です。
最後に、VPC Endpoint です。
これは VPC 内から AWS サービスをプライベートアクセスする仕組みです。
Azure では Service Endpoint または Private Endpoint が対応します。
Service Endpoint は子ネットから Azure PaaS にアクセス。
Private Endpoint はリソースに専用のプライベート IP を割り当てて完全にプライベートでアクセスできます。
Q2. Firewallやセキュリティの経験は?
A2. 過去の案件でZabbixやクラウド環境の監視設定を行い、Firewallルールやログの分析を担当しました。基礎は理解しています。
Q3. Pythonはどの程度使えますか?
A3. 8年以上の経験があり、API開発、データ処理、AI実装に広く利用してきました。関数やテストも問題なく扱えます。
Q4. 上司を怒らせたことがありますか?
A3. 例1(ポジティブに経験を活かす場合)
「はい、過去に意見の相違や報告のタイミングのズレで上司にご迷惑をおかけしたことはあります。ただ、その経験を通じて、事前に相談することや報告の仕方を工夫することの大切さを学びました。それ以来、チーム内での情報共有や報告のタイミングを意識するようにしています。」
A3. 例2(具体的な改善を強調)
「過去に、私の判断で作業方針を進めた結果、上司の意図とずれてしまい注意を受けたことがあります。その経験から、重要な判断は必ず上司と確認してから進めるようにし、報告・連絡・相談(ホウレンソウ)の徹底を心がけています。」
■日文 私から質問
- 出勤は週1日とのことですが、具体的にはどの曜日が想定されていますか?
- 今回のAI実装は、どのAzureサービスを主に使う予定でしょうか?
- セキュリティの作業は主にFirewall設定なのか、監視運用も含まれるのか教えていただけますか?
■英文 Self Introduction(2–3 min)
Hello, my name is Andrew. I studied Electrical Engineering in undergraduate school and System Analysis in graduate school, and since 2016 I have been working in Japan as a software engineer. I have more than eight years of experience in cloud, AI, and automation projects.
Recently, I worked on building an internal agent platform using AWS and Azure. I implemented AI services, used RAG for knowledge search, and also considered security, such as access control and monitoring. I have long experience with Linux and Python. I also have some background in Firewall and network monitoring.
I like learning new technologies. I am also interested in Bicep and IaC tools. I believe I can contribute to this project with my cloud and AI experience, and I am motivated to grow as a cloud engineer. Thank you very much.
■英文 Anticipated Questions & Answers
Q1. Do you have experience with Azure?
A1. Yes. I mainly worked with AWS recently, but I also used Azure Portal to implement AI services. I am willing to learn more Azure services quickly.
Q2. How about your Firewall or security experience?
A2. I configured monitoring and firewall rules in cloud environments. I also analyzed logs for security. I understand the basics and can handle it.
Q3. How much Python experience do you have?
A3. I have more than eight years of experience. I used it for API development, data processing, and AI implementation. Functions and testing are no problem.
■英文 My Questions to Them
- For the hybrid work style, do you have a fixed day to go to the office?
- Which Azure AI services will be mainly used in this project?
- Regarding security, will the main focus be firewall setup, or also monitoring and operation?
■案件に合うプロジェクト紹介(日本語+英語)
日本語
たとえば、2025年6月から7月に担当した 「社内エージェントシステム」 の開発です。AWSのBedrockやKendraを利用し、RAGを組み込んでAIサービスを実装しました。このとき、セキュリティやTerraformによるIaCにも関わりました。Pythonでの開発が中心で、クラウド上でのAI実装の流れを理解しています。Azureでも同じようにポータルからAIサービスを組み合わせることができると思います。
英語
For example, in June–July 2025, I worked on an Internal Agent Platform project. I used AWS Bedrock and Kendra, and implemented RAG for AI services. I also handled security design and Infrastructure as Code with Terraform. Python was the main language. Through this project, I gained experience in implementing AI services in the cloud. I believe I can apply the same skills to Azure, using the portal and managed AI services.
日本語バージョン
自己紹介(2-3分)
はじめまして、盛と申します。中国で電気工学とシステム分析を学び、2016年に来日して以来、8年以上ソフトウェア開発に携わってきました。
Pythonを中心に、バックエンドからフロントエンド、クラウド、AIまで幅広く経験しています。特に最近は、生成AIやRAG技術を用いたシステム開発に力を入れており、社内エージェントシステムや監視自動化システムを設計・実装しました。
SQLAlchemyやpytestを使った開発経験もあり、AzureやAWS上でのインフラ構築も担当しました。Shellスクリプトによる運用効率化や、PostgreSQLを使ったデータ処理も実務で経験しています。
また、プロジェクトリーダーとして詳細設計から実装、テスト、運用まで一貫して推進した経験があり、GitHubやSwaggerを活用したチーム開発も得意です。
日本語環境で長年業務を行っており、コミュニケーションや要件整理も問題なく対応できます。これまでの経験を活かし、御社のAIアプリケーション開発に貢献できればと思います。どうぞよろしくお願いいたします。
想定される質問と回答
Q1. Pythonでの開発経験を具体的に教えてください。
A1. Pythonは8年以上使ってきました。API開発ではFastAPIを用いた経験があり、pytestでのテスト自動化や、SQLAlchemyを使ったORM設計も行いました。最近は生成AIとRAGを組み合わせたシステムに多く関わっています。
SQLAlchemy は、Python の ORM です。
ORM っていうのは、データベースをオブジェクトとして扱える仕組みです。
簡単に言うと、テーブルをクラスにして、行をオブジェクトにできます。
だから、SQL を直接書かなくても、Python のコードだけでデータ操作ができます。
SQLAlchemy は二つの使い方があります。
ひとつは ORM です。
クラスとオブジェクトを使って、データベースを操作できます。
もうひとつは Core です。
こちらは SQL に近い書き方ができます。
複雑なクエリやパフォーマンス重視のときに便利です。
SQLAlchemy のいいところは柔軟なことです。
ORM だけで簡単に操作もできます。
Core を使えば、高度な SQL も書けます。
さらに、SQLite、PostgreSQL、MySQL など、いろんなデータベースで使えます。
要するに、SQLAlchemy は Python でデータベースを便利に扱える強力なツールです。
初心者でも使いやすく、プロでも柔軟に使える、とても便利なフレームワークです。
Q2. Azureでの経験はありますか?
A2. はい。Azure VMやACRを利用したコンテナ構築、Azure Blobストレージやネットワーク設定の経験があります。AWSやGCPの経験もあり、マルチクラウド対応が可能です。
Q3. チームでの役割はどのようなものでしたか?
A3. 詳細設計や技術選定を行い、リーダーとしてタスクを分担しながら、自分も実装やテストに積極的に参加してきました。
私からの質問
- 今回のプロジェクトで特に重要視している技術要素はどれでしょうか?
- チーム体制はどのようになっていますか?
- 開発からリリースまでのスケジュール感を教えていただけますか?
英語バージョン
Self-Introduction (2-3 min)
Hello, my name is Andrew. I studied Electrical Engineering and System Analysis in China, and since 2016 I have been working in Japan as a software engineer.
I mainly work with Python, and I have experience from backend to frontend, cloud, and AI. In recent years, I focused on Generative AI and RAG systems. I designed and built internal agent platforms and monitoring automation systems using LLMs.
I also have hands-on experience with FastAPI, pytest, and SQLAlchemy. I have used PostgreSQL in production, and I write Shell scripts for automation. On the infrastructure side, I have worked with Azure VM, ACR, Blob Storage, and also AWS services.
As a project leader, I managed tasks from design to testing and deployment. I often used GitHub and Swagger for documentation and team collaboration.
I have been working in a Japanese-speaking environment for over 8 years, so communication is not a problem. I would like to contribute my skills and experience to your AI application development project. Thank you.
Possible Questions & Answers
Q1. Can you explain your Python experience?
A1. I have used Python for more than 8 years. I developed APIs with FastAPI, automated tests with pytest, and designed database models with SQLAlchemy. Recently, I worked on RAG and Generative AI systems.
Q2. What experience do you have with Azure?
A2. I built systems on Azure VM, used ACR for container images, and worked with Blob Storage and networking. I also have AWS and GCP experience.
Q3. What was your role in the team?
A3. I often took the role of a technical leader. I did system design, task assignment, and also coding and testing myself.
My Questions
- What is the main goal of this AI project?
- How is the development team organized?
- What is the expected timeline for release?
① MonotaRO「RecSys API開発」
- 募集条件対応:Python、FastAPI、pytest、SQLAlchemy(ORM)、PostgreSQL、CI/CD
日本語(口語)
MonotaROで商品推薦システムのAPIを開発しました。PythonとFastAPIでAPIを実装し、SQLAlchemyを使ってデータを扱いました。データベースはPostgreSQLです。テストはpytestで自動化し、CI/CDパイプラインに組み込みました。この経験で、設計から実装・テスト・運用まで一貫して担当しました。
English
At MonotaRO, I developed a product recommendation API. I implemented it using Python and FastAPI, and managed data with SQLAlchemy. The database was PostgreSQL. I automated tests with pytest and integrated them into the CI/CD pipeline. I was responsible for the entire process, from design to implementation, testing, and deployment.
② SynX「Intelligent Agent Platform」
- 募集条件対応:生成AI、RAG、Agent開発、Python、クラウド(AWS → Azureに展開可能)、Terraform、GitHub、Markdown、Swagger
日本語(口語)
SynXでは社内エージェントシステムを開発しました。Pythonでサーバレス構成を作り、RAGと知識ベースを統合しました。生成AIを使って自動応答ができるようにしました。AWSのBedrockとKendraを使いましたが、Azureでも同じ構成が可能です。ドキュメントはMarkdownとSwaggerでまとめ、GitHubで管理しました。Terraformでインフラを自動化しました。
English
At SynX, I built an internal agent platform. I used Python for a serverless setup and integrated RAG with a knowledge base. The system provides automated responses using Generative AI. I used AWS Bedrock and Kendra, but the same structure can be applied on Azure. I documented with Markdown and Swagger, managed the code on GitHub, and automated infrastructure using Terraform.
③ SynX「Walkure Operator」
- 募集条件対応:生成AI、RAG、Python、LangChain、Markdown、GitHub、監視自動化(インフラ知識)
日本語(口語)
もう一つ、SynXで「Walkure Operator」という監視自動化システムを作りました。PythonでZabbixと複数のLLMを統合しました。LangChainとRAGを使って知識検索を実現しました。ドキュメントはMarkdownで作成し、GitHubで管理しました。アラートの要約、原因推定、予知保全まで自動化できました。
English
Another project at SynX is called “Walkure Operator,” an intelligent monitoring automation system. I integrated Zabbix with multiple LLMs using Python. I used LangChain and RAG to enable knowledge search. Documentation was written in Markdown and code managed with GitHub. The system automated alert summarization, root cause estimation, and predictive maintenance.
1. 社内エージェントシステム『Intelligent Agent Platform』
日语口语化介绍
これは社内用のエージェントシステムです。Pythonでサーバレスを作りました。RAGと知識ベースを統合し、LLMを使って自動応答できます。AWS Lambda、API Gateway、DynamoDBも使いました。Terraformで環境を管理しました。GitHubでバージョン管理しています。テストはpytestで実装しました。生成AIのユースケースも組み込みました。
English (concise)
This is an internal agent platform. I built it serverless with Python. It integrates RAG and a knowledge base to provide automated responses using LLMs. Used AWS Lambda, API Gateway, DynamoDB. Managed infrastructure with Terraform and version control with GitHub. Tests implemented using pytest. Generative AI use cases are included.
2. LLM活用型インテリジェント監視自動化システム『Walkure Operator』
日语口语化介绍
これは監視自動化システムです。PythonでZabbixと複数LLMを統合しました。アラート要約や原因推定、予知保全ができます。LangChainやRAG構成を活用して知識検索も対応。MCPプロトコルを採用してLLMの互換性を確保しました。Markdownでドキュメント作成、GitHubで管理しました。
English (concise)
This is an intelligent monitoring automation system. Integrated Zabbix with multiple LLMs using Python. Supports alert summarization, root cause estimation, predictive maintenance. Used LangChain and RAG for knowledge search. MCP protocol ensures LLM compatibility. Documentation in Markdown, version control via GitHub.
3. Backlogデータ解析によるインテリジェントプレゼンテーションシステム『Presenter』
日语口语化介绍
BacklogのプロジェクトデータをAIで解析し、自動でHTMLスライドを作るシステムです。音声ナレーションやインタラクティブな可視化もあります。PythonでAI解析と可視化機能を実装しました。GitHubで公開、保守しています。
English (concise)
This system analyzes Backlog project data with AI and automatically generates HTML slides. Includes voice narration and interactive visualization. Implemented AI analysis and visualization in Python. Published and maintained on GitHub.
4. AWSでの生成AI・RAGユースケース実装
日语口语化介绍
AWSの生成AIサンプルプロジェクトを参考に、Pythonで社内向けRAGシステムを構築しました。Amazon Bedrock、Kendraを利用し、LLMモデルを統合。TerraformとGitHub Actionsで環境管理・自動レビューも行いました。
English (concise)
Built internal RAG system in Python using AWS generative AI sample projects. Integrated LLMs with Amazon Bedrock and Kendra. Managed infrastructure and automated reviews with Terraform and GitHub Actions.
自己紹介(朗読用)
はじめまして、盛 偉と申します。私は中国の大学で電気工学とシステム分析を学んだ後、2016年に来日し、以来日本語環境で8年以上ソフトウェア開発に従事してきました。ウェブシステム、物流システム、画像処理、大規模データ処理、自動化ツール、機械学習基盤、そして最近では生成AIを活用した社内業務自動化システムなど、多岐にわたるプロジェクトで開発とプロジェクトリーダー経験があります。
最近は特にPythonを使ったバッチ処理やデータパイプライン、BIプラットフォームとの連携を担当してきました。関連システムの安定稼働のための開発、運用、手順書作成、チーム内外の調整なども行ってきました。また、AWS LambdaやAPI Gateway、DynamoDBを活用したサーバーレス構成でのシステム構築経験もあります。
私は技術力だけでなく、チームとの円滑なコミュニケーション、課題の整理、進捗管理も重視しています。御社のPythonバッチ開発やBI統合プロジェクトにおいて、安定性と効率性向上に貢献できると考えております。どうぞよろしくお願いいたします。
面接で聞かれそうな質問と回答
Pythonでのバッチ開発経験について教えてください。
Pythonでデータ処理や自動化バッチを設計・実装・運用してきました。例えば、プロジェクトデータを処理してBIシステムに統合するパイプラインの構築や、エラー処理・監視体制の整備も担当しました。JP1やShell、Cでのバッチ経験はありますか?
はい、Shellスクリプトでの自動化経験があり、Cを使った既存システムとの連携も行いました。Pythonを中心に、他言語と組み合わせて安定したバッチ処理を構築しています。リーダーとしてのチームコミュニケーションはどうしていますか?
ドキュメント整備や定期ミーティングを行い、進捗や課題を共有します。メンバーが安心して相談できる環境を作り、プロジェクトを円滑に進めるよう心がけています。BIプラットフォームへの移行経験はありますか?
はい、データ処理パイプラインをBIシステムに統合し、自動レポートやダッシュボード化を行いました。データの整合性と運用手順の明確化を意識して進めています。AWSの利用経験はありますか?
AWS Lambda、API Gateway、DynamoDB、S3などを利用したサーバーレス構成の経験があります。バッチ処理や社内自動化システムに統合して運用してきました。
自分から質問する内容
- 現在のPythonバッチプロジェクトの主な課題や重点領域について教えていただけますか。
- チーム構成やリーダーとSEの役割分担はどのようになっていますか。
- 現在使用しているBIプラットフォームやツールについて、今後の移行計画はありますか。
- バッチジョブの実行頻度や安定稼働のための監視・運用体制はどのようになっていますか。
- チーム内での改善提案や自動化の取り組みに参加する機会はありますか。
自我介绍稿(口头朗读用)
Hello, my name is Andrew. I am an experienced software engineer with over eight years of professional experience in Japan, working entirely in Japanese-speaking environments. I graduated with a master’s degree in Electrical Engineering and System Analysis from Zhejiang University in China, and since coming to Japan, I have been involved in a wide range of projects, including web systems, logistics automation, image processing, big data pipelines, and AI-driven platforms.
Most recently, I have been developing Python-based batch and automation systems, including AI-powered operational monitoring systems and internal agent platforms. I have designed, implemented, and maintained backend services, data pipelines, and batch jobs, often integrating them with BI platforms and cloud services such as AWS Lambda, API Gateway, and DynamoDB. I also have experience leading projects, coordinating teams, and preparing documentation and procedures.
I am particularly skilled in Python for batch processing, asynchronous programming, and system integration. I am proactive, collaborative, and able to communicate effectively with team members and stakeholders. I am excited about the opportunity to contribute my expertise to your Python batch development and BI integration projects, and I am confident I can help strengthen the stability and efficiency of your systems.
面试可能问你的问题及示例回答
Can you describe your experience with Python batch development?
Answer: I have developed and maintained multiple Python batch systems for data processing, monitoring, and automation. For example, at my current company, I built automated workflows that process project data, integrate with BI platforms, and generate reports, ensuring stable operation and handling exceptions effectively.Have you worked with JP1, Shell, or C in batch systems?
Answer: Yes, I have experience with Shell scripting for automation, and I have developed some legacy system integrations using C. In most cases, I combine Python with these tools to create reliable batch processes and data pipelines.How do you ensure communication within a team, especially when acting as a lead?
Answer: I maintain clear documentation, hold regular meetings, and proactively check on task progress. I make sure everyone understands their responsibilities and feel comfortable sharing concerns. This approach has helped me manage teams efficiently and deliver projects on time.Have you migrated batch systems to BI platforms?
Answer: Yes. For instance, I have migrated data processing pipelines into BI systems, automating reporting and dashboards. I focus on preserving data integrity, ensuring smooth ETL processes, and creating clear operational procedures.Do you have experience with AWS services?
Answer: I have worked with AWS Lambda, API Gateway, DynamoDB, and S3 in serverless architectures. I have integrated batch processes and internal automation systems on AWS, though my primary focus is on Python development.
你可以问面试官的问题
- Can you tell me more about the current Python batch projects and their main challenges?
- How is the team structured, and what is the expected collaboration between the lead and SE roles?
- What BI platforms and tools are currently used, and are there any planned migrations or upgrades?
- How often are the batch jobs executed, and what measures are in place to ensure stability and monitoring?
- Are there opportunities to contribute to process improvement or automation initiatives within the team?
業務内容
金融業界向けのAIソリューション開発(自然言語処理を中心とした業務領域)
大規模言語モデル(LLM)を活用したアプリケーションの設計・実装
RAGアーキテクチャの構築およびベクトルデータベースとの連携開発
プロンプトエンジニアリングの検討・最適化
フロントエンド(Vue.js/React)との連携開発(できると嬉しい)
データ処理・モデリング・評価を含むPoC/本番導入支援
応募資格
必須条件
コンピュータサイエンス関連専攻、若しくは、AI関連専攻、または同等の知識を有する方
Pythonを用いた開発経験
プロンプトエンジニアリングの基礎知識
RAG構築やベクトルデータベースの利用経験
歓迎条件
Vue.js または React を用いたフロントエンド開発経験
金融業界でのシステム開発やデータ分析の経験
NLPモデル(BERT、GPT系、LLaMA系など)の実務経験
英語または日本語での技術文書読解力(日本語力はビジネスレベルでなくても可)
自己紹介(2〜3分)
私は盛偉と申します。中国の大学院でシステム分析を専攻し、2016年から日本でエンジニアとして働いております。これまで8年以上、日本語環境の中で、フルスタック開発やクラウド、AIを活用したシステム開発を経験してきました。
近年は特に生成AIや大規模言語モデルを使った業務効率化に取り組み、RAG構成の設計やプロンプトエンジニアリングの最適化に携わりました。Pythonを中心に、バックエンドからフロントエンド、AWSやGCPなどクラウド基盤まで幅広く対応できます。
技術的な探究心を持ちつつ、実際に使える形に落とし込むことを得意としております。御社の業界向けAIソリューション開発においても、経験を活かしつつ、新しい挑戦をして貢献したいと考えております。どうぞよろしくお願いいたします。
プロジェクト紹介(2つ)
一つ目は「Intelligent Agent Platform」の開発です。AWSの生成AIプロジェクトを活用し、社内向けのエージェントシステムを構築しました。RAGを組み込み、Amazon BedrockやKendraと連携することで、知識検索やTerraform自動レビューを実現し、業務効率を大きく改善しました。
二つ目は「Walkure Operator」という監視自動化システムです。Zabbixと複数のLLMを統合し、監視アラートを自動で要約・原因推定する仕組みを構築しました。LangChainやベクトルデータベースを利用して検索精度を高め、アラート対応の自動化と予知保全を実現しました。
2019年から2020年にかけて、Google Kubernetes Engine 上に機械学習プラットフォームを構築しました。
バックエンドは Python と GCP を使い、データアクセスは BigQuery と連携しました。
また、ユーザーがブラウザから簡単に利用できるように、フロントエンド部分では Vue.js を用いてインターフェースを開発しました。JupyterLab の拡張機能と統合し、ユーザー認証やジョブ管理を直感的に操作できるようにしました。
この結果、再現性のある ML 環境を整備し、実験から本番デプロイまでの流れを統一することができました。
想定される質問と回答(日本語)
Q1: なぜ金融業界で働きたいのですか?
A: 金融業界はデータが非常に多く、AIによる効率化や新しい価値提供の余地が大きいと考えております。これまで培ったRAGやLLMの経験を活かして、信頼性の高いソリューションを提供したいと思っています。
Q2: プロンプトエンジニアリングの経験は?
A: 監視自動化システムで、アラート要約や推定の精度を上げるため、複数のプロンプトパターンを検証し最適化しました。その結果、誤判定を減らし、運用の効率を高めることができました。
Q3: チームでの役割は?
A: 多くの場合プロジェクトリーダーとして要件整理から設計・開発・導入までを担当しました。チームメンバーの強みを活かしつつ、自らも実装を行うスタイルです。
こちらからの質問(日本語)
- 御社が金融業界に提供しているAIソリューションの中で、今最も注力している領域はどこでしょうか?
- RAGやLLMを導入する際、御社ではどのように品質評価をされていますか?
- チーム構成や開発プロセスについて教えていただけますか?
Self-introduction (2–3 min)
My name is Andrew. I studied system analysis at Zhejiang University and have been working in Japan as an engineer since 2016. Over the past eight years, I have gained experience in full-stack development, cloud platforms, and more recently, AI-driven automation using large language models.
In particular, I have designed and implemented RAG-based systems, optimized prompt engineering, and integrated LLMs with enterprise applications. My main language is Python, but I am also comfortable with JavaScript, Golang, and cloud services such as AWS and GCP.
I always try to turn new technologies into practical solutions. I would like to contribute to your AI solutions in your industry with both my technical skills and implementation experience. Thank you.
Project introduction (2)
The first project is the “Intelligent Agent Platform.” I built an internal agent system using AWS Bedrock and Kendra, combined with RAG architecture. It enabled knowledge search and automated Terraform review, which greatly improved productivity.
The second project is “Walkure Operator,” an intelligent monitoring system. I integrated Zabbix with multiple LLMs to summarize alerts, estimate root causes, and even predict failures. By using LangChain and vector databases, I improved search accuracy and reduced manual operation workload.
Likely questions and answers (English)
Q1: Why do you want to work in the financial industry?
A: Because the financial industry deals with massive data and requires high reliability. I believe AI solutions such as RAG and LLMs can bring significant efficiency and new value there.
Q2: What experience do you have with prompt engineering?
A: In the monitoring automation system, I tested and optimized multiple prompt templates to improve accuracy in summarizing alerts and predicting causes. This reduced errors and improved operational efficiency.
Q3: What role do you usually play in a team?
A: I often take the role of project leader, handling requirements, design, development, and deployment. At the same time, I contribute directly to coding and implementation.
Questions to ask them (English)
- Which areas of AI solutions in the financial sector are you focusing on the most right now?
- How do you evaluate the quality and reliability of RAG or LLM-based systems in your company?
- Could you tell me more about your team structure and development process?
【スキル】
(必須)
・Go, Python, JavaScript
・AWS(API Gateway, Lambda, ECS, CloudWatch)
・音声・映像データ処理の基礎知識 - 8月
・音声関連技術の知見(WebRTC、音声Codec、音声のストリーミングなど)
(尚可)
・AWS(X-Ray)
・Linux (Ubuntu, Amazon Linux)
・クラウドの運用ログ/メトリクスの分析、ダッシュボード作成経験
・WebRTC 関連知識 (OSS LiveKitなどのWebRTC SFUに触れた経験)
・Dockerコンテナを使った開発経験
・RESTful API, Serverlessに関する知識
・音声メディアの解析や評価ツール作成の経験
・英語の理解力(業務上求められる場面がある可能性あり)
日語 自己紹介(約2~3分)
蔡さま、こんにちは。盛 偉と申します。中国の浙江大学大学院でシステム分析を学び、2016年に来日して以来、日本の完全日本語環境でソフトウェア開発に従事してきました。バックエンド、フロントエンド、クラウド、AIなど幅広い分野での経験があり、プロジェクトリーダーとしての実績もございます。
特にAWSを利用したサーバーレスシステムの設計・開発経験が豊富で、Lambda、API Gateway、ECS、CloudWatchなどを組み合わせた分散処理や運用自動化を行ってきました。また、Python、Golang、JavaScriptを用いたリアルタイム通信やデータ処理システムの実装にも携わっております。
音声や映像データ処理についても基礎知識があり、WebRTCの仕組みや音声Codecの利用方法についてキャッチアップ中です。Dockerを用いた開発や、Linux環境での運用経験もありますので、新しい技術やOSSを取り入れながら迅速に貢献できると考えております。
多言語環境にも対応可能で、日本語に加え、中国語と英語でもコミュニケーションが可能です。御社のWebRTCを活用した音声伝送クラウドサービスの発展に、自身の経験と技術力を活かし貢献できれば幸いです。どうぞよろしくお願いいたします。
日語 想定質問と回答
Q1: WebRTCや音声Codecの実務経験はありますか?
A1: 実務として直接WebRTCを使った大規模開発はまだありませんが、リアルタイム通信や音声データ処理の基礎を理解しており、GolangやPythonでのストリーミング処理経験があります。キャッチアップは得意なので、短期間で習得し、貢献できると考えております。
Q2: AWSでどのようなシステムを構築しましたか?
A2: API Gateway、Lambda、DynamoDBを用いたサーバーレスAPIや、ECS上のコンテナ化システムを構築しました。CloudWatchでの運用監視やダッシュボード作成の経験もあります。
Q3: チーム開発における強みは何ですか?
A3: プロジェクトリーダーとしての経験があり、設計から運用までを一貫して管理できる点です。また、多国籍メンバーとの協業も経験しており、言語や文化の違いを越えた調整力に自信があります。
日語 自分から質問できる内容
- 本プロジェクトで採用予定のWebRTCフレームワークやOSSは何でしょうか?(例:LiveKitなど)
- 音声のストリーミング処理において現在の課題はどのような点でしょうか?
- チームの規模やリモート勤務の割合について教えていただけますか?
英語 Self Introduction (2–3 minutes)
Hello, my name is Wei Sheng. I completed my Master’s degree in System Analysis at Zhejiang University in China, and since 2016, I have been working in Japan in a fully Japanese business environment. Over the past eight years, I have gained wide-ranging experience in backend and frontend development, cloud infrastructure, automation, and AI integration, while also leading multiple projects as a technical leader.
I have strong hands-on experience with AWS services, including API Gateway, Lambda, ECS, and CloudWatch, building serverless systems and container-based solutions. I am also proficient in Python, Go, and JavaScript, and I have worked on real-time communication and data processing systems.
While I have not yet developed a large-scale product directly with WebRTC, I have studied its architecture, and I have experience with audio streaming, codecs, and Docker-based development. Combined with my background in Linux environments and monitoring dashboards, I believe I can quickly get up to speed and contribute to your project.
In addition, I am fluent in Japanese, Chinese, and English, which allows me to work smoothly in multicultural teams. I am very motivated to contribute to your WebRTC-based cloud service for multi-connection audio streaming, ensuring quality and scalability. Thank you very much.
英語 Expected Questions & Answers
Q1: Do you have direct experience with WebRTC?
A1: Not directly in a production system, but I have worked on real-time communication and streaming with Go and Python, and I have studied WebRTC and audio codecs. I am confident I can adapt quickly.
Q2: What AWS services have you used?
A2: I have implemented serverless systems using Lambda, API Gateway, and DynamoDB, containerized applications on ECS, and monitoring with CloudWatch, including dashboards for metrics and logs.
Q3: How do you usually contribute to team projects?
A3: I take responsibility for end-to-end processes, from design to deployment, and as a project leader, I manage schedules and make technical decisions. I also communicate effectively across teams and cultures.
英語 You can ask them
- Which WebRTC framework or OSS are you currently using, for example LiveKit or others?
- What are the biggest technical challenges in your audio streaming system?
- Could you tell me about the team size and the balance between remote work and office work?
WebRTC SFU
WebRTCというのは、ブラウザやアプリの間で音声や映像を直接やり取りできる技術です。
その中で、SFUは「セレクティブ・フォワーディング・ユニット」と言って、多人数で会話するときに使われる仕組みです。
各参加者が自分の音声や映像をサーバーに送って、サーバーはそれを加工せずに、他の人にそのまま転送します。
こうすると、遅延が少なくて、サーバーの負荷も軽いので、大人数のミーティングや音声サービスに向いています。
音声コーデック
コーデックというのは「コーダー」と「デコーダー」の意味で、音声を**圧縮して送る技術**のことです。
インターネットで会話するときは、そのまま送るとデータが大きすぎるので、コーデックで小さくしてから送ります。
代表的なのは Opus というコーデックで、高音質で遅延も少なく、WebRTCではよく使われています。
OSS LiveKit
LiveKitはオープンソースのWebRTC用サーバーで、簡単に言うと「SFUをすぐ使えるようにしたソフト」です。
LiveKitを使うと、多人数の音声・映像通話の仕組みをすばやく作れます。
また、GoやPython、JavaScript向けのライブラリも提供されていて、クラウド環境にも導入しやすいです。
はじめまして、盛 偉と申します。私は中国の浙江大学で電気工学とシステム分析を学び、2016年に来日して以来、日本の完全日本語環境でソフトウェア開発に従事してきました。バックエンド、フロントエンド、クラウド、データ基盤、AIまで幅広く経験しており、プロジェクトリーダーとしてチームをまとめた経験もあります。
最近では、AWSを活用したサーバーレスシステムや、LLMを用いた自動化・監視システムの開発に携わりました。また、Python、Go、JavaScriptでの開発経験も豊富で、音声データ処理やリアルタイム通信の基礎知識も有しています。英語と中国語も業務レベルで理解でき、多文化チームでのコミュニケーションにも対応可能です。
御社のWebRTCを用いた多接続音声伝送クラウドサービスにおいて、私の経験と技術力を活かし、高品質かつスケーラブルなシステム構築に貢献したいと考えております。どうぞよろしくお願いいたします。
Q1: WebRTCの経験はありますか?
A1: 直接的なプロダクト経験はありませんが、PythonやGoでリアルタイム通信システムを開発した経験があり、WebRTCの仕組みを短期間で習得可能です。
Q2: AWSでのサーバーレス開発経験はありますか?
A2: はい、Lambda、API Gateway、DynamoDB、ECSなどを用いたサーバーレスシステムの設計・実装経験があります。
Q3: チームでの役割は何ですか?
A3: プロジェクトリーダーとして、設計、実装、テスト、デプロイ、運用まで全体を管理し、技術的な判断と進捗管理を行ってきました。
- 開発チームの規模や構成はどのようになっていますか?
- 音声データのリアルタイム処理で、特に注意しているポイントは何ですか?
- リモートワークとオフィス出社の割合はどのくらいですか?
自己紹介(2〜3分、朗読用)
はじめまして、盛と申します。これまで日本で8年以上ソフトウェアエンジニアとして働いてきました。バックエンドからフロントエンド、クラウドまで幅広い経験があります。特にPythonとGoを使った開発を多く担当し、AWS環境でのシステム設計や運用も経験しています。
最近は音声や生成AIを組み合わせたシステムの開発に携わり、リアルタイム性を意識したアーキテクチャ設計やAPI連携を実装しました。また、WebRTCや非同期処理、ストリーミング処理などにも関心があり、今回の案件にも近い領域を扱ったことがあります。
外国籍ですが、2016年から日本語環境で働いており、日常業務での日本語による会話や文書作成も問題なく対応できます。御社のクラウドサービス開発において、これまでの経験を活かして貢献できればと思っております。どうぞよろしくお願いいたします。
想定される質問と回答(日本語)
Q1: Go 言語の経験はどのくらいありますか?
A: Golang は主にネットワーク監視ツールやバックエンド API の開発で使いました。非同期処理や並列性を活かした実装を経験しました。
Q2: AWS のサービスはどのように使ったことがありますか?
A: Lambda、API Gateway、DynamoDB、ECS などを利用してサーバーレスやマイクロサービスの構築を行いました。CloudWatch でログ監視やアラート設定も担当しました。
Q3: 音声や映像データ処理の経験はありますか?
A: 音声合成やナレーション生成のプロジェクトで、音声データの前処理やストリーミング配信の仕組みを実装しました。WebRTC そのものの商用開発経験はまだ浅いですが、関連技術を学習しながら応用できると考えています。
Q4: 日本語での業務に不安はありませんか?
A: 2016年から日本語環境で業務を行っており、日常会話や技術的な議論、ドキュメント作成は問題なく対応可能です。
こちらからの質問例(日本語)
- 今回の案件では WebRTC のどの部分(接続管理、音声処理、スケーリングなど)に最も注力していますか?
- 開発チームの体制や、リモートと出社の割合について教えていただけますか?
- 今回のシステムで特にパフォーマンスや信頼性の課題になっている点は何でしょうか?
- X-Ray などの監視・トレーシングは既に導入されていますか、それともこれから検討する段階でしょうか?
はじめまして、盛 偉と申します。私は中国の浙江大学で電気工学とシステム分析を学び、2016年に来日して以来、日本の完全日本語環境でソフトウェア開発に従事してきました。バックエンド、フロントエンド、クラウド、データ基盤、AIまで幅広く経験しており、プロジェクトリーダーとしてチームをまとめた経験もあります。
最近では、AWSを活用したサーバーレスシステムや、LLMを用いた自動化・監視システムの開発に携わりました。また、Python、Go、JavaScriptでの開発経験も豊富で、音声データ処理やリアルタイム通信の基礎知識も有しています。英語と中国語も業務レベルで理解でき、多文化チームでのコミュニケーションにも対応可能です。
御社のWebRTCを用いた多接続音声伝送クラウドサービスにおいて、私の経験と技術力を活かし、高品質かつスケーラブルなシステム構築に貢献したいと考えております。どうぞよろしくお願いいたします。
Q1: WebRTCの経験はありますか?
A1: 直接的なプロダクト経験はありませんが、PythonやGoでリアルタイム通信システムを開発した経験があり、WebRTCの仕組みを短期間で習得可能です。
Q2: AWSでのサーバーレス開発経験はありますか?
A2: はい、Lambda、API Gateway、DynamoDB、ECSなどを用いたサーバーレスシステムの設計・実装経験があります。
Q3: チームでの役割は何ですか?
A3: プロジェクトリーダーとして、設計、実装、テスト、デプロイ、運用まで全体を管理し、技術的な判断と進捗管理を行ってきました。
- 開発チームの規模や構成はどのようになっていますか?
- 音声データのリアルタイム処理で、特に注意しているポイントは何ですか?
- リモートワークとオフィス出社の割合はどのくらいですか?
Hello, my name is Wei Sheng. I studied Electrical Engineering and System Analysis at Zhejiang University in China, and since moving to Japan in 2016, I have been working in a fully Japanese environment as a software engineer. I have extensive experience in backend, frontend, cloud services, data infrastructure, and AI systems, and I have led multiple project teams as a technical leader.
Recently, I have worked on serverless systems using AWS and automation monitoring systems integrating large language models. I am proficient in Python, Go, and JavaScript, and I have basic knowledge of audio data processing and real-time communication. I am also fluent in English and Chinese, which allows me to collaborate effectively in multicultural teams.
I am excited about the opportunity to contribute my skills to your WebRTC-based multi-connection audio transmission cloud service, ensuring high-quality and scalable system development. Thank you for your time.
Q1: Do you have experience with WebRTC?
A1: I haven’t worked with WebRTC directly, but I have experience developing real-time communication systems in Python and Go, and I can quickly get up to speed with WebRTC technology.
Q2: What is your experience with serverless architecture on AWS?
A2: I have designed and implemented serverless systems using AWS Lambda, API Gateway, DynamoDB, and ECS, integrating automation and monitoring features.
Q3: How do you contribute to team projects?
A3: As a project leader, I manage design, implementation, testing, deployment, and operation, making technical decisions and ensuring project progress and quality.
- Could you tell me about the team size and structure for this project?
- What are the key challenges in real-time audio processing that the team focuses on?
- What is the balance between remote work and office presence?
自己紹介(2〜3分、朗読用)
はじめまして、盛と申します。これまで日本で8年以上ソフトウェアエンジニアとして働いてきました。バックエンドからフロントエンド、クラウドまで幅広い経験があります。特にPythonとGoを使った開発を多く担当し、AWS環境でのシステム設計や運用も経験しています。
最近は音声や生成AIを組み合わせたシステムの開発に携わり、リアルタイム性を意識したアーキテクチャ設計やAPI連携を実装しました。また、WebRTCや非同期処理、ストリーミング処理などにも関心があり、今回の案件にも近い領域を扱ったことがあります。
外国籍ですが、2016年から日本語環境で働いており、日常業務での日本語による会話や文書作成も問題なく対応できます。御社のクラウドサービス開発において、これまでの経験を活かして貢献できればと思っております。どうぞよろしくお願いいたします。
想定される質問と回答(日本語)
Q1: Go 言語の経験はどのくらいありますか?
A: Golang は主にネットワーク監視ツールやバックエンド API の開発で使いました。非同期処理や並列性を活かした実装を経験しました。
Q2: AWS のサービスはどのように使ったことがありますか?
A: Lambda、API Gateway、DynamoDB、ECS などを利用してサーバーレスやマイクロサービスの構築を行いました。CloudWatch でログ監視やアラート設定も担当しました。
Q3: 音声や映像データ処理の経験はありますか?
A: 音声合成やナレーション生成のプロジェクトで、音声データの前処理やストリーミング配信の仕組みを実装しました。WebRTC そのものの商用開発経験はまだ浅いですが、関連技術を学習しながら応用できると考えています。
Q4: 日本語での業務に不安はありませんか?
A: 2016年から日本語環境で業務を行っており、日常会話や技術的な議論、ドキュメント作成は問題なく対応可能です。
こちらからの質問例(日本語)
- 今回の案件では WebRTC のどの部分(接続管理、音声処理、スケーリングなど)に最も注力していますか?
- 開発チームの体制や、リモートと出社の割合について教えていただけますか?
- 今回のシステムで特にパフォーマンスや信頼性の課題になっている点は何でしょうか?
- X-Ray などの監視・トレーシングは既に導入されていますか、それともこれから検討する段階でしょうか?
機械学習職位面接準備資料
📢 1分間自己紹介(口頭発表用)
初めまして、盛偉と申します。私は8年以上のソフトウェア開発経験があり、特に機械学習分野では4年以上の実務経験を持っております。
Pythonでの開発は8年間行っており、MonotaRO在職時にはGoogle Cloud PlatformとKubernetesを使った機械学習プラットフォームの構築を主導しました。JupyterLabの拡張からBigQueryとの連携まで、データサイエンティストが実験から本番環境まで一貫して利用できるMLパイプラインを設計・構築した経験があります。
直近では、LLMを活用した監視自動化システムでプロジェクトリーダーを担当し、LangChainやRAG構成を用いたインテリジェントなシステムを開発いたしました。また、強化学習や最適化アルゴリズムを使ったAGVの協調制御システムも手がけており、理論と実装の両面で経験を積んでおります。
フルリモート環境での開発にも慣れており、チーム連携や品質管理も得意としております。十月一日から貢献できる準備が整っておりますので、どうぞよろしくお願いいたします。
❓ 想定質問と回答
Q1: Pythonでの機械学習経験について具体的に教えてください
A: 私のPython機械学習経験は主に三つの領域に分かれます。まず、MonotaRO時代にはscikit-learnやTensorFlowを用いた予測モデルの構築を2年間担当しました。特に、顧客行動予測やレコメンデーションシステムの開発に従事し、A/Bテストを通じてモデルの効果を検証しました。次に、画像処理分野では、OpenCVとPyTorchを使った画像認識システムを開発し、Cannyエッジ検出などのアルゴリズムを実装しました。最近では、LangChainとTransformersライブラリを活用してLLMベースのシステムを構築しており、RAG構成やベクトル検索の実装経験もあります。
Q2: 機械学習パイプラインの構築経験について詳しく聞かせてください
A: MonotaROでGKE上に構築した機械学習プラットフォームが代表例です。データの前処理からモデル訓練、評価、デプロイまでの全工程を自動化するパイプラインを設計しました。具体的には、BigQueryからのデータ抽出、Pandas・NumPyでの前処理、JupyterLabでの実験環境、Kubernetesでのモデル訓練ジョブの分散実行、そして本番環境への自動デプロイまでを一元管理しました。CI/CDパイプラインも構築し、モデルのバージョン管理とA/Bテストの自動化も実現しました。この結果、データサイエンティストの実験から本番化までの時間を30%短縮できました。
Q3: 強化学習や最適化の経験はありますか?
A: はい、複数のプロジェクトで経験があります。SynXでのAGVフロア間タスク調整システムでは、複数のロボット間の協調制御にマルチエージェント強化学習のアプローチを採用しました。Q-learningベースのアルゴリズムを実装し、搬送効率の最適化を図りました。また、数理最適化では、制約付き最適化問題を解くためにSciPyの最適化ライブラリを活用し、遺伝的アルゴリズムやシミュレーテッドアニーリングなどのメタヒューリスティクス手法も試行しました。これらの経験により、理論的な背景と実装の両面でスキルを身につけています。
Q4: フルリモートでの開発経験について教えてください
A: 8年間の日本での開発経験の中で、特にコロナ以降はフルリモート環境での開発が中心でした。GitHubを使ったコード管理、Slack・Teamsでのコミュニケーション、Zoomでの定期的なスタンドアップミーティングなど、リモート開発に必要なツールは全て習熟しております。また、プロジェクトリーダーとしても、リモート環境でのチーム管理やタスクの進捗管理を経験しており、非同期でのコミュニケーションや文書化による情報共有も得意としております。
Q5: 今後どのような技術に興味がありますか?
A: 特に生成AIとProcedural Content Generationに強い関心があります。現在のLLM経験を活かしつつ、マルチモーダルな生成モデルやGANを使ったコンテンツ自動生成に挑戦したいと考えています。また、強化学習とゲーム開発の融合にも興味があり、NPCの行動学習やゲームバランスの自動調整などの分野で貢献したいと思います。さらに、MLOpsの分野では、Kubeflowやflow等の最新ツールを学び、よりスケーラブルで運用しやすいMLパイプラインの構築スキルを向上させたいと考えております。
🙋♂️ こちらからの質問
技術・開発環境について
Q: 現在使用されている機械学習技術スタックを教えてください
意図:技術的な適合性と学習すべき技術の確認
Q: 開発チームの規模と、機械学習エンジニアの役割分担はどのようになっていますか?
意図:チーム構成と自分の位置づけの理解
Q: モデルの本番運用において、どのような監視・運用体制を取られていますか?
意図:MLOpsへの取り組み状況確認
プロジェクト・業務内容について
Q: 入社後、最初に担当する可能性が高いプロジェクトはどのような内容でしょうか?
意図:具体的な業務イメージの把握
Q: ゲームやアプリサービスの開発において、機械学習はどのような場面で活用されていますか?
意図:ビジネスへの機械学習の適用方法理解
Q: 研究開発的な要素と実装業務の比率はどの程度でしょうか?
意図:業務の性質と期待値の確認
成長・キャリアについて
Q: 機械学習エンジニアのスキルアップ支援制度はありますか?
意図:継続的な学習環境の確認
Q: 学会発表や技術ブログでの情報発信は推奨されていますか?
意図:技術者としての成長機会確認
Q: 将来的に、機械学習チームのリーダーやアーキテクトへのキャリアパスはありますか?
意図:長期的なキャリア展望の確認
働き方・環境について
Q: フルリモート環境でのチーム連携やコミュニケーションの工夫があれば教えてください
意図:リモートワークの実態確認
Q: GPU等の計算リソースの利用環境はどのようになっていますか?
意図:開発環境の充実度確認
Q: コードレビューやペアプログラミングなどの品質管理体制について教えてください
意図:開発プロセスの質確認
1分間自己紹介
案件のご紹介をいただき、ありがとうございます。盛偉と申します。私は8年以上のソフトウェア開発経験を持ち、特にPythonでの高度な開発に従事してまいりました。MonotaROでは6年半にわたり、Google Cloud PlatformとAWSを活用したビッグデータ処理システムの設計・開発を担当し、BigQueryやKinesisを使用した大規模データパイプラインの構築を手がけました。また、FlaskやDjangoなどのMVCフレームワークを用いたWebアプリケーション開発の豊富な経験があります。直近のSynXでは、機械学習基盤やLLMを活用したシステム開発のプロジェクトリーダーを務め、アジャイル開発手法でチームを統括しました。Docker、Kubernetesを使ったコンテナ化やCI/CDパイプラインの構築など、DevOpsの実務経験も豊富です。AWS上でのシステム設計から運用まで一貫して対応できます。御社でもこれまでの経験を活かし、スケーラブルなシステム開発に貢献したいと考えております。よろしくお願いいたします。
想定質問と回答
Q: Scalaの経験はありますか?
A: Scalaの直接的な実務経験は限定的ですが、JVMベースの言語であるJavaでの開発経験があり、関数型プログラミングの概念についても理解しております。また、Sparkを使用したビッグデータ処理において、Scalaで書かれたコードの読解や修正を行った経験があります。入社後は積極的にScalaのスキルアップを図り、早期にプロジェクトで活用できるよう努めます。
Q: Spark/Hadoopの具体的な経験を教えてください
A: MonotaROでのデータパイプライン構築において、大規模ログデータの処理でSparkを活用しました。特に、fluentd、Kinesis、Lambdaと組み合わせたストリーム処理基盤を構築し、BigQueryでの分析用データの前処理を担当しました。また、機械学習プラットフォームの構築では、Sparkを使用したデータ前処理パイプラインの設計・実装を行い、ML訓練用のデータセット生成を自動化しました。
Q: DevOpsの経験について具体的に教えてください
A: Docker、Kubernetesを使用したコンテナ化とオーケストレーションの経験があります。GKE上での機械学習プラットフォーム構築では、JupyterLabのコンテナ化と自動スケーリング設定を行いました。また、GitHubActionsやTerraformを使用したCI/CDパイプラインの構築、インフラの自動化も実装しており、開発から本番デプロイまでの全工程を自動化した経験があります。
Q: アジャイル開発でのプロジェクト管理経験は?
A: 直近のSynXでのプロジェクトでは、2週間スプリントのスクラム開発を採用し、プロジェクトリーダーとしてデイリースタンドアップやスプリントプランニングを主導しました。特に、LLMという新技術を既存システムに統合する際のリスク管理において、段階的な実装とイテレーティブな検証を重視し、プロダクトオーナーと緊密に連携しながらプロジェクトを成功に導きました。
Q: 大手町での勤務について問題ありませんか?
A: 問題ございません。現在千葉市に住んでおり、大手町までは総武線で通勤可能です。また、リモートワークとのハイブリッド勤務体制についても柔軟に対応いたします。チームメンバーとの密接な協力が必要な場面では積極的にオフィス勤務し、集中して作業したい時はリモートワークを活用するなど、プロジェクトの状況に応じて最適な働き方を選択したいと考えております。
逆質問集
Q: 開発チームの技術スタックと開発体制について教えてください
意図:使用技術とチーム規模の把握
Q: Scala・Pythonの使い分けはどのような基準で行われていますか?
意図:技術選択の方針理解
Q: 現在取り組まれているビッグデータプロジェクトの規模感や課題があれば教えてください
意図:具体的な業務内容の確認
Q: アジャイル開発のサイクルやチーム運営で重視されていることはありますか?
意図:開発プロセスの理解
Q: AWSの利用状況と、今後のクラウド戦略について教えてください
意図:インフラ環境と将来性の確認
Q: リモートワークとオフィス勤務のバランスはどの程度でしょうか?
意図:働き方の具体的な確認
Q: 入社後の技術キャッチアップやスキルアップ支援制度はありますか?
意図:成長環境の確認
Q: チーム内でのコードレビューや技術的な議論の文化について教えてください
意図:技術的な環境の質確認
本日はお忙しい中、貴重なお時間をいただき、ありがとうございます。盛偉と申します。
私は中国の名門大学で電気工学とシステム分析を学んだ後、来日してから八年以上にわたり、完全日本語環境でソフトウェア開発に従事してきました。これまでの経験では、ウェブシステムから機械学習基盤、そして最近では生成AIを活用した運用監視自動化システムや社内エージェントシステムの構築まで、多岐にわたるプロジェクトを主導・開発してきました。
今回の技術課題では、「Intelligent Presenter for HTML Slides」というプロダクトを開発し、BacklogのプロジェクトデータからAIを活用してHTMLスライドを自動生成するシステムを構築しました。MCP協議の採用、Vue 3とSlidevによるモダンなフロントエンド、そして日本語TTS機能まで統合した包括的なソリューションに仕上げました。この課題を通じて、Nulabの技術方針やプロダクト理念に深く共感し、特にBacklog AI助手の機能拡張という方向性で、既存サービスとの統合を意識した設計を心がけました。
私がNulabに魅力を感じるのは、「このチームで一緒に仕事できてよかった」という理念と、TRY FIRST、LOVE DIFFERENCES、GOAL ORIENTEDという行動方針です。これまでの経験でも、多様なメンバーとのチームワークを重視し、新しい技術への挑戦を恐れず、常に共通の目標に向かって努力することを大切にしてきました。
Nulabでは、これまでの豊富な開発経験とAI技術への深い理解を活かし、Backlog AI助手をはじめとする次世代プロダクトの開発に貢献したいと考えています。特に、ユーザーの業務効率化と新しい価値創造の両立を目指し、技術的な革新とユーザビリティの向上を同時に実現するプロダクト開発に取り組みたいと思います。
本日はどうぞよろしくお願いいたします。
Intelligent Presenter for HTML Slides
技術課題発表資料
スライド1: プロジェクト概要
Intelligent Presenter for HTML Slidesは、BacklogプロジェクトデータからAIを活用してHTMLスライドを自動生成するシステムです。
主要機能
- BacklogプロジェクトデータをMCP協議で取得
- AIによる10種類のテーマ別スライド自動生成
- 日本語TTS音声解説機能
- リアルタイム流式処理によるスライド配信
解説文
こんにちは。私が開発したIntelligent Presenter for HTML Slidesについてご紹介させていただきます。このシステムは、BacklogのプロジェクトデータからAIを使ってHTMLスライドを自動で生成するシステムです。Backlogプロジェクトのデータを自動で取得し、AIが十種類のテーマに分けてスライドを作成します。さらに、日本語の音声解説も付けることができます。
スライド2: 技術アーキテクチャ
1 | TypeScript Frontend (Vue 3) ↔ Go Backend (MCP Gateway) ↔ MCP Servers |
主要コンポーネント
- フロントエンド: Vue 3 + TypeScript + Slidev
- バックエンド: Go + Gin + WebSocket
- MCP統合: Backlog MCP Server + Speech TTS Server
- 認証: OAuth 2.0 + JWT
解説文
システムのアーキテクチャは三層構造になっています。フロントエンドはVue 3とTypeScript、Slidevを使用しています。バックエンドはGo言語とGinフレームワークで構築し、WebSocketでリアルタイム通信を行います。外部サービスとの連携はMCP協議を使い、Backlog MCP ServerとTTS音声合成サーバーに接続しています。認証はOAuth 2.0とJWTを使用して実装しました。
スライド3: 10種類のスライドテーマ
プロジェクト管理の全側面をカバー
- プロジェクト概況と基本情報
- プロジェクト進度と状態
- 課題詳細と管理
- プロジェクトリスクと瓶頸予警
- チームメンバーと協作状態
- ドキュメントと知識庫管理
- コードベースと開発活動
- 通知とコミュニケーション管理
- 智能化輔助と予測分析
- 総括と次段階計画
解説文
システムでは十種類のスライドテーマを用意しています。プロジェクト概要から始まり、進捗状況、課題管理、リスク分析、チーム協力状況、文書管理、開発活動、コミュニケーション管理、そして予測分析まで、プロジェクト管理の全ての側面をカバーしています。最後に総括と次の段階の計画を自動生成します。これにより、包括的なプロジェクトレポートを短時間で作成できます。
スライド4: リアルタイム生成フロー
非同期流式処理
graph TD A[ユーザー要求] --> B[Backlogデータ取得] B --> C[AI内容生成] C --> D[スライド配信] D --> E[TTS音声生成] E --> F[完了通知] B -.-> G[WebSocket] C -.-> G D -.-> G E -.-> G
解説文
システムの生成フローは非同期で処理されます。ユーザーからのリクエストを受けると、まずBacklogからプロジェクトデータを取得します。次に、AIがそのデータを分析してスライドの内容を生成し、WebSocketを通じてリアルタイムでフロントエンドに配信します。同時に、TTS機能で日本語の音声解説も生成します。すべての処理が完了すると、完了通知をユーザーに送信します。
スライド5: マルチモーダル統合
豊富なコンテンツ表現
- Markdown + Mermaid: フローチャート・図表自動生成
- Chart.js: インタラクティブデータ可視化
- Slidev: モダンHTML5プレゼンテーション
- TTS音声: 日本語ナレーション自動生成
AI統合
- OpenAI GPT-4: 内容生成とテキスト処理
- AWS Bedrock: マルチプロバイダーAIサポート
- RealtimeTTS: 日本語音声合成
解説文
システムは複数のコンテンツ表現方法を統合しています。MarkdownとMermaidでフローチャートや図表を自動生成し、Chart.jsでインタラクティブなデータ可視化を実現します。Slidevを使ってモダンなHTML5プレゼンテーションを作成し、TTS機能で日本語のナレーションも自動生成します。AIの統合では、OpenAI GPT-4とAWS Bedrockを使用し、RealtimeTTSで高品質な日本語音声を生成します。
スライド6: 技術的特長と創新点
Nulab AI戦略との整合性
- 既存Backlog AIアシスタントの機能拡張
- プレゼンテーション領域への応用展開
- MCP協議によるサービス統合の先進実装
セキュリティ・品質
- OAuth 2.0 + JWT認証
- Go言語による高性能バックエンド
- TypeScriptによる型安全フロントエンド
- Docker コンテナ化デプロイ
解説文
技術的な特長として、NulabのAI戦略との整合性を重視しました。既存のBacklog AIアシスタントの機能を拡張し、プレゼンテーション領域に応用展開しています。MCP協議を使った先進的なサービス統合も実装しました。セキュリティ面では、OAuth 2.0とJWTによる認証を実装し、Go言語による高性能なバックエンドとTypeScriptによる型安全なフロントエンドを構築しています。Dockerによるコンテナ化デプロイも対応しています。
スライド7: 実装成果と検証
実装完了機能
✅ OAuth 2.0 認証システム
✅ MCP Client統合(Go実装)
✅ リアルタイムWebSocket通信
✅ Vue 3 + Slidev フロントエンド
✅ 10テーマ自動生成システム
✅ TTS音声合成統合
✅ Docker コンテナ化
テスト・品質管理
- Go単体テスト(80%カバレッジ)
- TypeScript統合テスト
- APIエンドポイント検証
解説文
実装の成果をご報告します。OAuth 2.0による認証システム、Go言語でのMCP Client統合、WebSocketによるリアルタイム通信、Vue 3とSlidevによるフロントエンド、十種類のテーマによる自動生成システム、TTS音声合成の統合、そしてDockerによるコンテナ化まで、全ての主要機能を実装完了しました。品質管理では、Go言語の単体テストで80パーセントのカバレッジを達成し、TypeScriptでは統合テストを実装し、全てのAPIエンドポイントの検証も完了しています。
スライド8: 今後の展望
機能拡張計画
- 多言語対応: 英語・中国語コンテンツ生成
- カスタムテーマ: ユーザー定義スライドテーマ
- 高度分析: 予測分析・トレンド検出強化
- エクスポート機能: PDF・PowerPoint出力
スケーラビリティ
- クラウドネイティブ対応
- マルチテナント対応
- パフォーマンス最適化
解説文
今後の展望としては、まず多言語対応を計画しています。英語や中国語でのコンテンツ生成も可能にします。また、ユーザーが独自のスライドテーマを定義できるカスタムテーマ機能や、予測分析とトレンド検出を強化した高度分析機能、PDFやPowerPointへのエクスポート機能も追加予定です。スケーラビリティ面では、クラウドネイティブ対応、マルチテナント対応、そしてパフォーマンスの最適化を進めていきます。
まとめ: Nulabへの価値提供
ビジネス価値
- 効率化: プロジェクトレポート作成時間90%削減
- 品質向上: AI分析による見落とし防止
- 標準化: 統一フォーマットでの情報共有
技術価値
- 先進性: MCP協議・AI統合の実践
- 拡張性: マイクロサービス対応アーキテクチャ
- 保守性: 型安全言語による堅牢性
解説文
最後に、このシステムがNulabに提供できる価値についてまとめます。ビジネス価値としては、プロジェクトレポートの作成時間を九十パーセント削減し、AIによる分析で人間の見落としを防止し、統一されたフォーマットでの情報共有を実現します。技術価値としては、MCP協議とAI統合の実践により最先端技術を活用し、マイクロサービス対応のアーキテクチャで高い拡張性を実現し、型安全言語を使用することで堅牢で保守性の高いシステムを構築しています。この技術課題を通じて、Nulabの革新的なプロダクト開発に貢献できると確信しています。
二次面接用自己紹介(2-3分間)
本日はお忙しい中、貴重なお時間をいただき、ありがとうございます。ソフトウェアエンジニアとしてBacklog生成AI開発チームへの参加を希望している盛偉と申します。
私は中国の名門大学で電気工学とシステム分析を学んだ後、来日してから八年以上にわたり、完全日本語環境でソフトウェア開発に従事してきました。これまでの経験では、ウェブシステムから機械学習基盤、そして最近では生成AIを活用した運用監視自動化システムや社内エージェントシステムの構築まで、多岐にわたるプロジェクトを主導・開発してきました。
特に最新のプロジェクトでは、AWSの生成AIサンプルプロジェクトを活用した社内エージェントシステム「Intelligent Agent Platform」の設計・実装を担当し、MCP(Model Context Protocol)を採用したサーバーレス構成によるスケーラブルな自動化システムを構築しました。また、複数のLLMモデル(Claude 3 Haiku、Cohere Command R+など)の統合や、RAG機能を使った知識検索システムの実装も経験しています。
技術スタックとしては、バックエンドではGo、Python、Scala、フロントエンドではTypeScript、React、Vue.jsを使用し、クラウドではAWS、Azure、GCPすべてでの開発・運用経験があります。特にAI・機械学習分野では、LangChain、TensorFlow、PyTorchを使った実装経験を持ち、最近はOpenAI API、AWS Bedrock、Anthropic Claudeなどの最新LLMサービスの統合開発に深く関わっています。
今回の技術課題では、「Intelligent Presenter for HTML Slides」というプロダクトを開発し、BacklogのプロジェクトデータからAIを活用してHTMLスライドを自動生成するシステムを構築しました。MCP協議の採用、Vue 3とSlidevによるモダンなフロントエンド、そして日本語TTS機能まで統合した包括的なソリューションに仕上げました。この課題を通じて、Nulabの技術方針やプロダクト理念に深く共感し、特にBacklog AI助手の機能拡張という方向性で、既存サービスとの統合を意識した設計を心がけました。
私がNulabに魅力を感じるのは、「このチームで一緒に仕事できてよかった」という理念と、TRY FIRST、LOVE DIFFERENCES、GOAL ORIENTEDという行動方針です。これまでの経験でも、多様なメンバーとのチームワークを重視し、新しい技術への挑戦を恐れず、常に共通の目標に向かって努力することを大切にしてきました。
Nulabでは、これまでの豊富な開発経験とAI技術への深い理解を活かし、Backlog AI助手をはじめとする次世代プロダクトの開発に貢献したいと考えています。特に、ユーザーの業務効率化と新しい価値創造の両立を目指し、技術的な革新とユーザビリティの向上を同時に実現するプロダクト開発に取り組みたいと思います。
本日はどうぞよろしくお願いいたします。
面接Q&A集(日本語)
面接官からの予想質問と回答
Q1: 今回の技術課題でなぜこのアーキテクチャを選択しましたか?
A1:
三つの主要な理由があります。まず、Nulabの技術スタックとの親和性を重視し、TypeScriptとGoという御社が推奨する技術を採用しました。次に、スケーラビリティを考慮し、フロントエンドとバックエンドを分離したマイクロサービス指向のアーキテクチャを設計しました。最後に、将来的な機能拡張を見据えて、MCP協議による柔軟なサービス統合を実現しました。これにより、新しいデータソースやAIサービスを容易に追加できる拡張性の高いシステムになっています。
Q2: OAuth 2.0を選択した理由と実装で工夫した点を教えてください。
A2:
OAuth 2.0の選択は、セキュリティ要件とユーザビリティの両立を目的としています。APIキー認証と比べて、ユーザーのクレデンシャル情報を直接扱わず、スコープ制限により必要最小限の権限のみアクセスできるため、セキュリティリスクを大幅に軽減できます。実装では、CSRF攻撃を防ぐためのstate parameterによる検証、JWT tokenの適切な有効期限設定、そして認証状態の効率的なキャッシュ管理を実装しました。また、refresh tokenによる自動更新機能も組み込み、ユーザーの継続的な利用体験を確保しています。
Q3: MCP(Model Context Protocol)を採用した技術的な理由は何ですか?
A3:
MCP採用の主な理由は三つあります。第一に、標準化されたプロトコルを使用することで、異なるサービス間の統合が容易になります。第二に、JSON-RPC 2.0ベースの非同期通信により、リアルタイム処理とパフォーマンスの最適化を実現できます。第三に、Nulabが公式に提供するbacklog-mcp-serverを活用することで、開発効率と保守性を向上できます。また、将来的にClaude DesktopやCursorなどの外部AIツールとの統合も容易になるため、エコシステムの拡張性も考慮しました。
Q4: リアルタイム処理でWebSocketを選択した理由を説明してください。
A4:
WebSocketを選択した理由は、スライド生成の非同期処理における優れたユーザー体験の実現です。従来のHTTPポーリングと比べて、WebSocketは双方向通信により、サーバー側からクライアントへリアルタイムで進捗情報を配信できます。スライド生成は時間のかかる処理のため、ユーザーがリアルタイムで進行状況を確認できることが重要です。また、ネットワーク効率の観点でも、持続的な接続によりオーバーヘッドを削減し、複数のスライドデータを段階的に配信する際の性能向上を実現できます。
Q5: AIの統合において、OpenAIとAWS Bedrockの両方を実装した理由は?
A5:
複数のAIプロバイダー統合は、可用性とリスク分散を目的としています。OpenAI APIは高品質な生成能力を持ちますが、サービス停止やレート制限のリスクがあります。AWS Bedrockは複数のモデル(Claude、Command、Jurassic)へのアクセスを提供し、企業レベルのSLAと地域対応を実現します。フォールバック機能により、一つのサービスに問題が発生した場合でも継続的な利用が可能です。また、コスト最適化の観点でも、用途に応じて最適なモデルを選択することで、運用コストの削減を図ることができます。
Q6: テスト戦略について説明してください。どのようなテストを実装しましたか?
A6:
包括的なテスト戦略を実装しました。Go backend では単体テストで80%のコードカバレッジを達成し、特に認証ロジック、MCP統合、WebSocket通信の重要な部分は100%カバーしています。TypeScript frontend では、Vitestを使用したコンポーネントテストと統合テストを実装し、APIとの連携部分やスライド生成フローの検証を行っています。また、Docker環境での結合テストにより、実際のデプロイ環境での動作確認も実施しています。テストの自動化により、CI/CDパイプラインでの品質保証も実現しています。
Q7: パフォーマンス最適化でどのような工夫をしましたか?
A7:
複数の段階でパフォーマンス最適化を実施しました。バックエンドでは、Go routineによる並行処理でBacklogデータ取得とAI生成を同時実行し、処理時間を短縮しています。フロントエンドでは、Vue 3のComposition APIとreactivity systemを活用し、不要な再描画を最小限に抑制しています。また、WebSocketによるストリーミング配信で、スライドを生成次第順次配信することで、ユーザーの待機時間を短縮しています。Redisによるキャッシングで、同じプロジェクトの繰り返しアクセス時の応答速度も向上させています。
Q8: セキュリティ面でどのような対策を実装していますか?
A8:
多層的なセキュリティ対策を実装しています。認証レベルでは、OAuth 2.0によるセキュアな認証フロー、JWTトークンの適切な有効期限管理、CSRF対策のためのstateパラメーター検証を実装しています。通信レベルでは、HTTPS強制、WebSocketのSecure接続、CORS設定による適切なオリジン制限を行っています。データ保護では、機密情報の環境変数管理、APIキーの安全な保存、ログでの個人情報マスキングを実施しています。また、Docker securityの観点でも、non-rootユーザーでの実行、最小権限の原則を適用しています。
私からの質問
Q1: Backlog AI助手の今後のロードマップや重点領域について教えていただけますか?
Q2: チーム内での技術的な意思決定プロセスや、新しい技術導入時の検討フローについて伺えますか?
Q3: 現在のBacklog開発チームでの技術スタックや開発環境、特にAI関連の技術選択についてお聞かせください。
Q4: リモートワーク環境でのチームコラボレーションや知識共有の工夫について教えてください。
Q5: Nulabとして今後のAI技術トレンド(AGI、マルチモーダル、エージェント等)への取り組み方針はありますか?
Q6: エンジニアのスキルアップやキャリア成長に対する会社としてのサポート体制について教えてください。
Q7: プロダクト開発において、エンジニアチームとデザイナー、プロダクトマネージャーとの連携体制はどのようになっていますか?